JP6543108B2 - INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM - Google Patents

INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM Download PDF

Info

Publication number
JP6543108B2
JP6543108B2 JP2015130327A JP2015130327A JP6543108B2 JP 6543108 B2 JP6543108 B2 JP 6543108B2 JP 2015130327 A JP2015130327 A JP 2015130327A JP 2015130327 A JP2015130327 A JP 2015130327A JP 6543108 B2 JP6543108 B2 JP 6543108B2
Authority
JP
Japan
Prior art keywords
frame
omnidirectional image
image
display
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015130327A
Other languages
Japanese (ja)
Other versions
JP2017017446A (en
Inventor
大西 元大
元大 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015130327A priority Critical patent/JP6543108B2/en
Publication of JP2017017446A publication Critical patent/JP2017017446A/en
Application granted granted Critical
Publication of JP6543108B2 publication Critical patent/JP6543108B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、情報処理装置およびその制御方法、並びにプログラムに関し、特に撮像装置にて撮影された全方位画像を用いたプレビュー枠表示方法に関する。   The present invention relates to an information processing apparatus, a control method thereof, and a program, and more particularly to a preview frame display method using an omnidirectional image captured by an imaging apparatus.

近年普及しつつあるネットワークカメラには、ネットワークを介して遠隔の映像を取り込んでその映像をモニタに表示させるとともに、パン、チルト、ズームなどのカメラ制御を遠隔で行えるものがある。また、魚眼レンズを搭載し、座標系を変換した上で一部を切り出して表示可能なネットワークカメラもある。   2. Description of the Related Art Among network cameras that are becoming widespread in recent years, there are cameras that can remotely control a camera such as pan, tilt, and zoom while capturing a remote image via a network and displaying the image on a monitor. There is also a network camera that can carry a fisheye lens, transform the coordinate system, and cut out and display a part.

これらの操作を行うGUI(Graphical User Interface)には、矩形または円形の全方位画像を用いてパン、チルト、ズームや切り出し位置を指定するGUIがある。矩形の全方位画像を用いたGUIでは、矩形のプレビュー枠を表示し、マウスのクリックでプレビュー枠の中心を移動したり、ドラッグでプレビュー枠の大きさを変えたり、プレビュー枠を描画しなおしたりすることで、パン、チルト、ズーム制御を行えるものがある。また、円形の全方位画像を用いたGUIでは、全方位画像上の任意の箇所をマウスでクリックすることで、パン、チルト制御や切り出し位置を変更できるものがある。   Among GUIs (Graphical User Interfaces) for performing these operations, there are GUIs for specifying pan, tilt, zoom and cutout positions using rectangular or circular omnidirectional images. In a GUI using a rectangular omnidirectional image, a rectangular preview frame is displayed, the center of the preview frame is moved by clicking the mouse, the size of the preview frame is changed by dragging, and the preview frame is redrawn. There are some that can perform pan, tilt, and zoom control by doing this. Further, in a GUI using a circular omnidirectional image, there are some which can change pan / tilt control and a cutout position by clicking an arbitrary position on the omnidirectional image with a mouse.

特許文献1では、パン、チルト、ズームを変化させることによって撮影可能な範囲を示す矩形の撮影画像上のプレビュー枠をマウスで操作することで、パン、チルト、ズーム制御を行うことが開示されている。また、特許文献2では、円形のパノラマ画像のクリックによるカメラ制御のGUIが開示されている。   Patent Document 1 discloses that pan, tilt, and zoom control are performed by operating a preview frame on a rectangular captured image indicating a range capable of shooting by changing pan, tilt, and zoom with a mouse. There is. Further, Patent Document 2 discloses a GUI for camera control by clicking on a circular panoramic image.

特許第3315554号公報Patent No. 3315554 gazette 特許第5464290号公報Patent No. 5464290 gazette

特許文献1の技術では、撮影可能な範囲を示す矩形上に撮影画像を表示させる。そのため、天井に設置したカメラの真下方向を見たい場合に、被写体の歪みが大きくなる可能性がある。特許文献2の技術では、円形のパノラマ画像を使用する特許文献1で開示されたような直観的なプレビュー枠の操作によるカメラ制御の要望がある。   In the technique of Patent Document 1, a captured image is displayed on a rectangle that indicates a range that can be captured. Therefore, when it is desired to look directly below the camera installed on the ceiling, distortion of the subject may be large. In the technique of Patent Document 2, there is a demand for camera control by operation of an intuitive preview frame as disclosed in Patent Document 1 which uses a circular panoramic image.

また、矩形および円形の全方位画像のいずれでも、現在見えている映像の全方位画像上において対応部分をプレビュー枠で正確に囲むと、曲線で囲まれた複雑な形状になる。そのため、プレビュー枠のマウスドラッグでのスムーズな位置や大きさの変更が難しい。   Also, in either the rectangular or circular omnidirectional image, if the corresponding part is accurately surrounded by the preview frame on the omnidirectional image of the currently viewed image, it becomes a complicated shape surrounded by a curve. Therefore, it is difficult to change the smooth position and size of the preview frame by mouse dragging.

本発明は、矩形の全方位画像上だけでなく円形のパノラマ画像上でもプレビュー枠を表示し、それを用いたカメラ制御を可能にすることを目的とする。   An object of the present invention is to display a preview frame not only on a rectangular omnidirectional image but also on a circular panoramic image, and to enable camera control using it.

上記課題を解決するために本願発明は以下の構成を有する。すなわち、ネットワークを介してカメラ装置に接続された情報処理装置であって、前記カメラ装置が撮影した全方位画像を取得する取得手段と、前記取得手段にて取得した全方位画像を表示手段の表示画面に表示させる表示処理手段と、前記表示画面にて表示された全方位画像に重畳されるであって、前記全方位画像から切り出される所定の視野範囲の部分画像の位置を決定するための枠に対するユーザー操作の検出に応じて、前記全方位画像に重畳される枠および当該に対応する前記部分画像の切り替えを行う制御手段とを備え、前記表示処理手段は、ユーザー操作を受け付けている間は、矩形の前記枠を前記表示画面に表示させ、前記枠に対するユーザー操作を受け付けていない間は、当該枠を、当該枠に対応する視野範囲に基づく、少なくとも一部が曲線で構成された形状で前記表示画面に表示させる。 In order to solve the above-mentioned subject, the present invention has the following composition. That is, an information processing apparatus connected to a camera device via a network, the acquiring unit acquiring the omnidirectional image photographed by the camera device, and the display of the omnidirectional image acquired by the acquiring unit Display processing means for displaying on a screen, and a frame superimposed on an omnidirectional image displayed on the display screen, for determining the position of a partial image of a predetermined visual field range cut out from the omnidirectional image A frame superimposed on the omnidirectional image and control means for switching the partial image corresponding to the frame in response to detection of a user operation on the frame, the display processing means receiving the user operation In the meantime, the rectangular frame is displayed on the display screen, and while the user's operation on the frame is not received, the frame is based on the visual field range corresponding to the frame. At least partially Ru is displayed on the display screen in a shape composed of curved lines.

本発明により、円形の全方位画像上でプレビュー枠を表示し、それを用いたカメラ制御におけるユーザーの利便性を向上できる。   According to the present invention, it is possible to display a preview frame on a circular omnidirectional image and to improve the user's convenience in camera control using it.

システム構成例を示す図。A figure showing an example of system configuration. ビューワー端末のハードウェア構成例を示す図。The figure which shows the hardware structural example of a viewer terminal. カメラ装置の設置例を示す図。The figure which shows the example of installation of a camera apparatus. ビューワー画面の構成例を示す図。The figure which shows the structural example of a viewer screen. 球体モデル、円形の全方位画像、プレビュー枠の対応関係を表す図。The figure showing the correspondence of a spherical model, circular omnidirectional image, and a preview frame. 球体モデルへの内接と外接によるプレビュー枠の違いを表す図。The figure showing the difference of the preview frame by inscribed in a spherical model and circumscribed. プレビュー枠外クリック時の画面の変化を説明するための図。The figure for demonstrating the change of the screen at the time of preview frame outside clicking. プレビュー枠外ドラッグ時の画面の変化を説明するための図。The figure for demonstrating the change of the screen at the time of dragging outside a preview frame. プレビュー枠外クリック・ドラッグ時の処理のフローチャート。Flowchart of processing when clicking and dragging outside the preview frame. プレビュー枠内ドラッグ時の画面の変化を説明するための図。The figure for demonstrating the change of the screen at the time of the dragging in a preview frame. プレビュー枠内ドラッグ時の処理のフローチャート。The flowchart of the processing at the time of dragging in the preview frame. プレビュー枠上ドラッグ時の画面の変化を説明するための図。The figure for demonstrating the change of the screen at the time of a drag on a preview frame. プレビュー枠上ドラッグ時の処理のフローチャート。The flowchart of the processing at the time of dragging on the preview frame. 球体モデル、矩形の全方位画像、プレビュー枠の対応関係を表す図。The figure showing the correspondence of a spherical model, a rectangular omnidirectional image, and a preview frame. 円形の全方位画像上でのプレビュー枠操作時の画面の変化を説明するための図。The figure for demonstrating the change of the screen at the time of the preview frame operation on a circular omnidirectional image. 矩形の全方位画像上でのプレビュー枠操作時の画面の変化を説明するための図。The figure for demonstrating the change of the screen at the time of the preview frame operation on a rectangular omnidirectional image. 矩形の全方位画像と円形の全方位画像の自動切換時を説明するための図。The figure for demonstrating the time of the automatic switching of a rectangular omnidirectional image and a circular omnidirectional image. 矩形の全方位画像と円形の全方位画像の自動切換時の処理のフローチャート。The flowchart at the time of the process at the time of the automatic switching of a rectangular omnidirectional image and a circular omnidirectional image.

以下に、本発明の一実施形態を、図面に基づいて詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail based on the drawings.

<第一の実施形態>
第一の実施形態では、円形の全方位画像上でプレビュー枠を用いてパン、チルト、ズーム制御、および画像切り出し制御が行える実施形態について説明する。
First Embodiment
In the first embodiment, an embodiment in which pan, tilt, zoom control, and image cutout control can be performed using a preview frame on a circular omnidirectional image will be described.

[システム構成]
図1は、本実施形態に係るシステム構成例を示す図である。本実施形態に係るシステムは、カメラ装置1、カメラ装置2、およびビューワー端末3を含み、各装置はネットワーク4を介して接続されている。
[System configuration]
FIG. 1 is a diagram showing an example of a system configuration according to the present embodiment. The system according to the present embodiment includes a camera device 1, a camera device 2, and a viewer terminal 3, and the devices are connected via a network 4.

カメラ装置1は、ズームレンズ101、撮像部102、画像圧縮部103、可動雲台104、カメラ制御部105、通信部106、および全方位画像記憶部107を含んで構成される。また、カメラ装置1は、各種カメラ制御コマンドに応じて、パン、チルト、ズーム制御が可能であるとする。   The camera device 1 includes a zoom lens 101, an imaging unit 102, an image compression unit 103, a movable camera platform 104, a camera control unit 105, a communication unit 106, and an omnidirectional image storage unit 107. Further, it is assumed that the camera device 1 can perform pan, tilt, and zoom control according to various camera control commands.

ビューワー端末3からネットワーク4を介してパン、チルト、ズームいずれかのカメラ制御コマンドが送信されると、カメラ装置1は、通信部106によりカメラ制御コマンドを受信する。更に、通信部106は、受信したカメラ制御コマンドをカメラ制御部105に渡す。カメラ制御部105は、カメラ制御コマンドに対応して、パン、チルト制御信号を可動雲台104に、ズーム制御信号をズームレンズ101に送出することで、カメラ制御を実行する。また、それと並行して、画像圧縮部103は、撮像部102から受け取った画像をネットワーク配信可能な画像データに圧縮する。最後に、カメラ制御部105はカメラ制御結果を通信部106に渡し、画像圧縮部103は圧縮した画像データをメイン画像データとして通信部106に渡す。通信部106は、取得した情報を外部装置へと送信する。   When a pan, tilt, or zoom camera control command is transmitted from the viewer terminal 3 via the network 4, the camera device 1 receives the camera control command from the communication unit 106. Furthermore, the communication unit 106 passes the received camera control command to the camera control unit 105. The camera control unit 105 executes camera control by sending pan and tilt control signals to the movable camera platform 104 and a zoom control signal to the zoom lens 101 in response to a camera control command. At the same time, the image compression unit 103 compresses the image received from the imaging unit 102 into image data that can be distributed via network. Finally, the camera control unit 105 passes the camera control result to the communication unit 106, and the image compression unit 103 passes the compressed image data to the communication unit 106 as main image data. The communication unit 106 transmits the acquired information to an external device.

なお、図1には記載されていないが、全方位画像作成端末(不図示)によって、カメラ装置1をパン、チルト制御しながら撮影された画像を合成、圧縮されることで得られる全方位画像のデータが、全方位画像記憶部107に保存される。   Although not shown in FIG. 1, an omnidirectional image obtained by combining and compressing images taken while pan and tilt controlling the camera device 1 by an omnidirectional image generation terminal (not shown) The data of is stored in the omnidirectional image storage unit 107.

カメラ装置2は、魚眼レンズ201、撮像部202、画像圧縮部203、デワープ処理部204、カメラ制御部205、および通信部206を含んで構成される。また、カメラ装置2は、画像切り出し処理による仮想的なパン、チルト、ズーム制御が可能であるとする。   The camera device 2 includes a fisheye lens 201, an imaging unit 202, an image compression unit 203, a dewarping unit 204, a camera control unit 205, and a communication unit 206. In addition, it is assumed that the camera device 2 can perform virtual pan, tilt, and zoom control by image cutout processing.

ビューワー端末3からネットワーク4を介してパン、チルト、ズームいずれかのカメラ制御コマンドが送信されると、カメラ装置2は、通信部206によりカメラ制御コマンドを受信する。更に、通信部206は、受信したカメラ制御コマンドをカメラ制御部205に渡す。カメラ制御部105は、カメラ制御コマンドに対応して、画像切り出しパラメーターを生成し、デワープ処理部204に送出する。次に、デワープ処理部204は、取得した画像切り出しパラメーターに応じて撮像部202から取得した全方位画像の歪みを低減するためのデワープ処理(座標系変換と切り出し処理)を行う。   When a pan, tilt, or zoom camera control command is transmitted from the viewer terminal 3 via the network 4, the camera device 2 receives the camera control command from the communication unit 206. Furthermore, the communication unit 206 passes the received camera control command to the camera control unit 205. The camera control unit 105 generates an image clipping parameter in response to the camera control command, and sends the image clipping parameter to the dewarping processing unit 204. Next, the dewarping unit 204 performs a dewarping process (coordinate system conversion and cutout process) for reducing distortion of the omnidirectional image acquired from the imaging unit 202 according to the acquired image cutout parameter.

最後に、画像圧縮部203は、デワープ処理後の画像をネットワーク配信可能な画像データに圧縮し、メイン画像データとして通信部206に渡す。また、それと並行して、撮像部202は、全方位画像を画像圧縮部203に直接渡し、画像圧縮部203はその全方位画像をネットワーク配信可能な画像データに圧縮して、全方位画像データとして通信部206に渡す。通信部206は、取得した各画像データを外部装置へと送信する。   Finally, the image compression unit 203 compresses the image after the dewarping processing into image data that can be distributed over a network, and passes it to the communication unit 206 as main image data. In addition, in parallel with that, the imaging unit 202 passes the omnidirectional image directly to the image compression unit 203, and the image compression unit 203 compresses the omnidirectional image into image data that can be distributed over a network, and becomes omnidirectional image data. It passes to the communication unit 206. The communication unit 206 transmits each acquired image data to an external device.

これらのカメラ装置自体は、従来のカメラシステムと同様の構成を用いてもよいが、ネットワーク4を介してカメラ装置1、カメラ装置2と接続されるビューワー端末3の構成が、本願発明の特徴であり、従来のカメラシステムと異なる。ビューワー端末3のハードウェア構成については、図2を用いて後述するものとし、ここではソフトウェア構成の例について示す。ビューワー端末3は、メイン画像表示部301、全方位画像表示部302、画像伸長部303、プレビュー枠算出部304、操作入力部305、操作コマンド生成・解釈部306、および通信部307を含んで構成される。   Although these camera devices themselves may use the same configuration as a conventional camera system, the configuration of the viewer device 3 connected to the camera device 1 and the camera device 2 via the network 4 is a feature of the present invention. Yes, different from conventional camera systems. The hardware configuration of the viewer terminal 3 will be described later with reference to FIG. 2, and an example of the software configuration is shown here. The viewer terminal 3 includes a main image display unit 301, an omnidirectional image display unit 302, an image decompression unit 303, a preview frame calculation unit 304, an operation input unit 305, an operation command generation / interpretation unit 306, and a communication unit 307. Be done.

操作入力部305は、マウスやタッチパネルなどを介して入力されたユーザー操作を検出する。操作入力部305が、ユーザーからのカメラ制御に関する操作を検出すると、操作コマンド生成・解釈部306とプレビュー枠算出部304がプレビュー枠の位置と大きさを決定する。また、プレビュー枠の位置と大きさに応じたカメラ制御コマンドが生成され、生成されたカメラ制御コマンドが通信部307を介してカメラ装置1またはカメラ装置2に送信される。ここで生成されるカメラ制御コマンドは、カメラ装置1、2それぞれの仕様に応じて、生成されるものとする。通信部307は、カメラ制御結果とともに、各カメラ装置からメイン画像データと、全方位画像データを受信する。これらの画像データは、画像伸長部303で表示可能なメイン画像、全方位画像に伸長され、メイン画像表示部301、および全方位画像表示部302に渡される。   The operation input unit 305 detects a user operation input via a mouse, a touch panel, or the like. When the operation input unit 305 detects an operation related to camera control from the user, the operation command generation / interpretation unit 306 and the preview frame calculation unit 304 determine the position and size of the preview frame. In addition, a camera control command corresponding to the position and size of the preview frame is generated, and the generated camera control command is transmitted to the camera device 1 or the camera device 2 through the communication unit 307. The camera control command generated here is generated in accordance with the specifications of each of the camera devices 1 and 2. The communication unit 307 receives main image data and omnidirectional image data from each camera device together with the camera control result. These image data are expanded into a main image that can be displayed by the image expansion unit 303 and an omnidirectional image, and passed to the main image display unit 301 and the omnidirectional image display unit 302.

[ハードウェア構成]
図2は、情報処理装置である、ビューワー端末3のハードウェア構成例を示す図である。ビューワー端末3は、一般的な情報処理装置のハードウェアで構成することができる。CPU311は、ROM313内のプログラム用ROMに記憶されたプログラムや、ハードディスク320からRAM312にロードされたOS(Operating System)やアプリケーション等のプログラムを実行する。
[Hardware configuration]
FIG. 2 is a diagram showing an example of a hardware configuration of the viewer terminal 3 which is an information processing apparatus. The viewer terminal 3 can be configured by hardware of a general information processing apparatus. The CPU 311 executes a program stored in the program ROM in the ROM 313 or a program such as an operating system (OS) or an application loaded from the hard disk 320 into the RAM 312.

すなわち、CPU311が、読み取り可能な記憶媒体に格納されたプログラムを実行することにより、図1のビューワー端末3の各部位として機能し、後述する各フローチャートの処理を実行する。RAM312は、CPU311のメインメモリであり、ワークエリア等として機能する。キーボードコントローラ314は、キーボード318や図示しないポインティングデバイス(マウス、タッチパッド、タッチパネル、トラックボールなど)からの操作入力を制御する。ディスプレイコントローラ315は、ディスプレイ319の表示を制御する。ディスクコントローラ316は、各種データを記憶するハードディスク(HD)320へのデータアクセスを制御する。ネットワークコントローラ(NC)317はネットワーク4に接続され、ネットワーク4に接続されたカメラ装置1、2との通信制御処理を実行する。   That is, the CPU 311 functions as each part of the viewer terminal 3 of FIG. 1 by executing a program stored in a readable storage medium, and executes the processing of each flowchart to be described later. A RAM 312 is a main memory of the CPU 311 and functions as a work area or the like. The keyboard controller 314 controls operation input from the keyboard 318 and a pointing device (not shown) (mouse, touch pad, touch panel, track ball, etc.). The display controller 315 controls the display of the display 319. A disk controller 316 controls data access to a hard disk (HD) 320 which stores various data. A network controller (NC) 317 is connected to the network 4 and executes communication control processing with the camera devices 1 and 2 connected to the network 4.

[配置および画像の例]
図3は、カメラの設置の一例を示す図である。また、図4は、ビューワー端末3にて表示される表示画面の概要を示す図である。
[Example of arrangement and image]
FIG. 3 is a diagram showing an example of installation of a camera. FIG. 4 is a diagram showing an outline of a display screen displayed on the viewer terminal 3.

図3で示すように、ある空間においてカメラ装置1とカメラ装置2が天井に設置され、下を通る人物を撮影している。カメラ装置1とカメラ装置2は、ビューワー端末3にネットワーク4を介して接続されている。   As shown in FIG. 3, the camera device 1 and the camera device 2 are installed on a ceiling in a certain space, and a person passing below is photographed. The camera device 1 and the camera device 2 are connected to the viewer terminal 3 via the network 4.

図3の状態では、図4で示すように、ビューワー端末3上のビューワー画面にメイン画像400と円形の全方位画像510が表示される。全方位画像510上には、プレビュー枠511とマウスカーソル520が表示され、ユーザーがマウスを操作することによってマウスカーソル520が動き、それに応じてプレビュー枠511の移動や大きさの変更が行える。メイン画像400は、プレビュー枠511に対応した画像である。   In the state of FIG. 3, as shown in FIG. 4, the main image 400 and the circular omnidirectional image 510 are displayed on the viewer screen on the viewer terminal 3. A preview frame 511 and a mouse cursor 520 are displayed on the omnidirectional image 510, and when the user operates the mouse, the mouse cursor 520 moves, and the preview frame 511 can be moved or changed in size accordingly. The main image 400 is an image corresponding to the preview frame 511.

ここで、ビューワー画面の構成は、カメラ装置1、カメラ装置2ともに共通であるとする。カメラ装置1およびカメラ装置2のビューワー画面において異なる点としては、カメラ装置1では、円形の全方位画像510がパン、チルトして撮影された複数の過去画像を繋ぎ合せた静止画像である。一方、カメラ装置2では、円形の全方位画像510が魚眼レンズ201で撮影されデワープされずに圧縮されたライブの動画像である。なお、円形の全方位画像を魚眼画像とも呼ぶ。   Here, it is assumed that the configuration of the viewer screen is common to both the camera device 1 and the camera device 2. A different point in the viewer screens of the camera device 1 and the camera device 2 is that, in the camera device 1, the circular omnidirectional image 510 is a still image obtained by joining a plurality of past images captured by panning and tilting. On the other hand, in the camera device 2, the circular omnidirectional image 510 is a live moving image captured by the fisheye lens 201 and compressed without being dewarped. The circular omnidirectional image is also referred to as a fisheye image.

[画像の対応関係]
図5は、本実施形態に係るプレビュー枠を算出するための球体モデル、円形の全方位画像、プレビュー枠の対応関係を表す図である。
[Correspondence of image]
FIG. 5 is a view showing a correspondence relationship between a spherical model, a circular omnidirectional image, and a preview frame for calculating a preview frame according to the present embodiment.

プレビュー枠を算出するための球体モデル500はカメラ装置の視点を中心とした球体で示され、図3のように天井に設置したカメラ装置の場合は、球体の下半分が撮影可能範囲に対応する。枠501は、球体の視野範囲内の曲面に内接または外接し、視線方向と直交する平面領域としての平面502のうち、視野範囲の部分を示す。ここで、全方位画像510は、球体の下半分に射影されたシーンの映像を球体の垂直軸と直交する平面503に射影したものである。また、プレビュー枠511は、枠501の各頂点を平面503に射影し、直線で結んだ矩形である。   The sphere model 500 for calculating the preview frame is shown as a sphere centered on the viewpoint of the camera device, and in the case of the camera device installed on the ceiling as shown in FIG. 3, the lower half of the sphere corresponds to the imageable range . A frame 501 is inscribed or circumscribed to a curved surface within the visual field range of the sphere, and shows a portion of the visual field range in the plane 502 as a plane area orthogonal to the viewing direction. Here, the omnidirectional image 510 is a projection of the image of the scene projected on the lower half of the sphere on a plane 503 orthogonal to the vertical axis of the sphere. Further, the preview frame 511 is a rectangle in which each vertex of the frame 501 is projected on the plane 503 and connected by a straight line.

図6は、球体モデル500への内接と外接によるプレビュー枠の違いを説明するための図である。図6(a)は、球体モデル500を平面502上の点から見た図である。枠501は、視野範囲内の曲面506に内接する場合は面505に対応し、視野範囲内の曲面506に外接する場合は面504に対応する。曲面506を平面503に射影すると、その縁部分が図6(b)および図6(c)のプレビュー枠516になる。基準点508は、曲面506と視線方向を表す直線との交差する点を平面503に射影した点である。図6(b)のプレビュー枠515は、平面503上に面505の4頂点を射影し、直線で結んだ矩形である。図6(c)のプレビュー枠514は、平面503上に面505の4頂点を射影し、直線で結んだ矩形である。   FIG. 6 is a diagram for explaining the difference between the introspection to the sphere model 500 and the preview frame due to the circumscription. FIG. 6A is a view of the sphere model 500 viewed from a point on the plane 502. FIG. The frame 501 corresponds to the surface 505 when inscribed in the curved surface 506 within the field of view, and corresponds to the surface 504 when circumscribed to the curved surface 506 within the field of view. When the curved surface 506 is projected onto the plane 503, the edge portion thereof becomes the preview frame 516 of FIGS. 6 (b) and 6 (c). The reference point 508 is a point obtained by projecting the intersection point of the curved surface 506 and the straight line representing the viewing direction onto the plane 503. The preview frame 515 in FIG. 6B is a rectangle obtained by projecting the four vertices of the surface 505 on the plane 503 and connecting them by straight lines. The preview frame 514 in FIG. 6C is a rectangle obtained by projecting the four vertices of the surface 505 on the plane 503 and connecting the four vertices with a straight line.

ここで、曲面506の4頂点は面505の4頂点と一致するため、プレビュー枠515とプレビュー枠516の4頂点も一致する。また、曲面506の中心点および面504の中心点は視線方向を表す直線との交点で一致するため、プレビュー枠514の中心点と基準点508も一致する。プレビュー枠515、514は、両方同時に画面上に表示すると、ユーザーが視認しにくくなるため、いずれかを選択してプレビュー枠511としてビューワー画面上に表示する。なお、本実施形態では、プレビュー枠516はビューワー画面上に表示しない。   Here, since the four vertices of the surface 506 coincide with the four vertices of the surface 505, the four vertices of the preview frame 515 and the preview frame 516 also match. Further, since the central point of the curved surface 506 and the central point of the surface 504 coincide at an intersection point with the straight line representing the gaze direction, the central point of the preview frame 514 and the reference point 508 also coincide. If both of the preview frames 515 and 514 are displayed on the screen at the same time, it becomes difficult for the user to visually recognize them, and one of them is selected and displayed as the preview frame 511 on the viewer screen. In the present embodiment, the preview frame 516 is not displayed on the viewer screen.

プレビュー枠515を表示するように選択した場合、実際に見える範囲に相当するプレビュー枠516よりも円形の全方位画像の中心寄りに表示され、全方位画像上からプレビュー枠がはみ出すことがないという利点がある。ただし、この場合は、基準点508とプレビュー枠515の中心点にずれが生じる。一方、プレビュー枠514を表示するように選択した場合、実際に見える範囲に相当するプレビュー枠516よりも円形の全方位画像の中心に対して外寄りに表示され、全方位画像上からプレビュー枠がはみ出す場合がある。ただし、この場合は、基準点508とプレビュー枠514の中心点にずれは生じない。これらの特徴に応じて、ユーザーはどちらを表示するかを選択できる。   When the preview frame 515 is selected to be displayed, the preview frame is displayed closer to the center of the circular omnidirectional image than the preview frame 516 corresponding to the actually visible range, and the preview frame does not protrude from the omnidirectional image. There is. However, in this case, a shift occurs between the reference point 508 and the center point of the preview frame 515. On the other hand, when the preview frame 514 is selected to be displayed, the preview frame is displayed on the outer side with respect to the center of the circular omnidirectional image than the preview frame 516 corresponding to the actually visible range. May spill over. However, in this case, no shift occurs between the reference point 508 and the center point of the preview frame 514. Depending on these features, the user can choose which to display.

[処理フロー]
以下、図7〜図13を用いて、本実施形態に係る表示処理について説明する。ここでは、プレビュー枠に対するいずれかの位置を指定した場合の画面遷移を表示例と併せて説明する。
Processing flow
Hereinafter, the display processing according to the present embodiment will be described using FIGS. 7 to 13. Here, the screen transition when one of the positions with respect to the preview frame is designated will be described together with the display example.

本実施形態では、操作入力部305に対してユーザー入力を行うためのデバイスとしてマウスを用いた例について説明する。ここでのマウス操作は、マウスの左側のボタンを主となる操作に使うものとし、右側のボタンを副となる操作に用いるものとする。しかし、これに限定するものではなく、逆の設定がなされているマウスの場合には、以下の処理フローでのマウス操作も右ボタンと左ボタンとが逆になる。また、特に指定する場合を除いて、以下に示すマウスアップ、マウスダウンの操作は、左側のボタンを用いた操作を指すものとする。なお、ドラッグとは、マウスダウンした状態で、マウスカーソルを移動させることを指す。   In this embodiment, an example using a mouse as a device for performing user input to the operation input unit 305 will be described. The mouse operation here uses the button on the left side of the mouse as the main operation, and the button on the right side uses it as the secondary operation. However, the present invention is not limited to this, and in the case of a mouse having the reverse setting, the right button and the left button are reversed in the mouse operation in the following processing flow. In addition, unless otherwise specified, the mouse-up and mouse-down operations described below refer to operations using the left button. The term "drag" refers to moving the mouse cursor while the mouse is down.

なお、図9、図11、図13、および図18に示す各処理フローチャートは、ビューワー端末3のCPUがROM等に格納されたプログラムを実行することで実現される。   The process flowcharts shown in FIG. 9, FIG. 11, FIG. 13 and FIG. 18 are realized by the CPU of the viewer terminal 3 executing a program stored in the ROM or the like.

(プレビュー枠の枠外を指定した際の動作)
図7は、ユーザー操作により、プレビュー枠の外側の領域をクリックした時の表示の変遷を説明するための図である。図8は、プレビュー枠の外側の領域をドラッグした時の表示の変遷を説明するための図である。また、図9は、図7に係る操作を行った際の処理を表すフローチャートである。
(Operation when the outside of the preview frame is specified)
FIG. 7 is a diagram for explaining transition of display when an area outside the preview frame is clicked by a user operation. FIG. 8 is a diagram for explaining transition of display when an area outside the preview frame is dragged. Further, FIG. 9 is a flowchart showing processing when the operation according to FIG. 7 is performed.

図9に示す処理フローが開始される時点では、図7(a)のように、全方位画像510にプレビュー枠511が表示された状態であるとする。   When the processing flow shown in FIG. 9 is started, it is assumed that the preview frame 511 is displayed on the omnidirectional image 510 as shown in FIG. 7A.

S101にて、ビューワー端末3は、マウスダウンが行われたか否かを検知する。マウスダウンが行われていない場合は(S101にてNO)本処理フローを終了する。マウスダウンが行われた場合(S101にてYES)、ビューワー端末3は、マウスダウンが行われた位置(以下、マウスダウン位置)が、現在表示されているプレビュー枠511の枠外であって、かつ、全方位画像510上であるか否かを判定する。上記条件を満たさない場合(S102にてNO)本処理フローを終了する。上記条件を満たす場合(S102にてYES)、S103にて、ビューワー端末3は、マウスダウン位置を基準点508とする別のプレビュー枠512を表示する。図7(b)のように、プレビュー枠512は、プレビュー枠511と識別可能なように、例えば、線種や線の色が異なるように表示される。このとき、プレビュー枠511、512に対応する視野範囲である曲面506の大きさ(つまり、ズーム位置もしくは画角)が維持されるように、プレビュー枠算出部304がプレビュー枠512の大きさを算出する。例えば、円形の全方位画像510において、円の中心に近い位置をマウスダウンするほど、同じ大きさであってもプレビュー枠512は大きく表示される。これは、図5に示すように、平面503に射影した際の関係に起因する。また、全方位画像510の中心位置と基準点508との位置関係に応じてプレビュー枠512はプレビュー枠511から回転される。   At S101, the viewer terminal 3 detects whether or not mouse-down has been performed. If mouse-down has not been performed (NO at S101), this processing flow ends. When mouse down is performed (YES in S101), viewer terminal 3 has a position where mouse down is performed (hereinafter, mouse down position) outside the frame of preview frame 511 currently displayed, and It is determined whether or not the omnidirectional image 510 is on. When the above condition is not satisfied (NO in S102), this processing flow ends. If the above condition is satisfied (YES in S102), the viewer terminal 3 displays another preview frame 512 having the mouse-down position as the reference point 508 in S103. As shown in FIG. 7B, the preview frame 512 is displayed so that, for example, the line type and the line color are different so as to be distinguishable from the preview frame 511. At this time, the preview frame calculation unit 304 calculates the size of the preview frame 512 so that the size (that is, the zoom position or the angle of view) of the curved surface 506 corresponding to the preview frames 511 and 512 is maintained. Do. For example, in the circular omnidirectional image 510, the preview frame 512 is displayed larger as the mouse is down at a position closer to the center of the circle, even with the same size. This originates in the relationship at the time of projecting on the plane 503, as shown in FIG. Further, the preview frame 512 is rotated from the preview frame 511 according to the positional relationship between the center position of the omnidirectional image 510 and the reference point 508.

S104にて、ビューワー端末3は、ドラッグが行われたか否かを検知する。ドラッグが行われていない場合は(S104にてNO)、S106へ進む。ドラッグが行われた場合は(S104にてYES)、S105にて、ビューワー端末3は、マウスダウン位置と、ドラッグされることにより移動した現在のマウスカーソル520の位置とに応じて、プレビュー枠512を再描画する。このとき、プレビュー枠算出部304は、図8(b)のように、基準点508の位置が変わらず、ユーザー操作によるマウスカーソル520の移動に合せてマウスカーソル520の位置が常にプレビュー枠512上になるように大きさを変化させる。その後、S106へ進む。   At S104, the viewer terminal 3 detects whether a drag has been performed. If the drag is not performed (NO in S104), the process proceeds to S106. If a drag is performed (YES in S104), in S105, viewer terminal 3 selects preview frame 512 according to the mouse down position and the current position of mouse cursor 520 moved by dragging. Redraw At this time, as shown in FIG. 8B, the position of the reference point 508 does not change, and the position of the mouse cursor 520 is always on the preview frame 512 according to the movement of the mouse cursor 520 by the user operation. Change the size to be Then, it progresses to S106.

S106にて、ビューワー端末3は、マウスアップが行われたか否かを検知する。マウスアップが行われていない場合は(S106にてNO)S107へ進み、マウスアップが行われた場合には(S106にてYES)S109へ進む。   At S106, the viewer terminal 3 detects whether or not mouse-up has been performed. If mouse-up has not been performed (NO in S106), the process proceeds to S107, and if mouse-up has been performed (YES in S106), the process proceeds to S109.

S107にて、ビューワー端末3は、右クリックがされたか否かを判定する。右クリックがされていない場合は(S107にてNO)S104へ戻り、右クリックがされた場合は(S107にてYES)S108へ進む。S108にて、ビューワー端末3は、プレビュー枠512に対する操作をキャンセルし、プレビュー枠511のみが表示された状態(図7(a)の状態)に戻す。この場合は、カメラ制御コマンドは生成されず、送信も行われない。そして、本処理フローを終了する。   In S107, the viewer terminal 3 determines whether or not the right click has been made. If the right click is not performed (NO at S107), the process returns to S104, and if the right click is performed (YES at S107), the process proceeds to S108. In S108, the viewer terminal 3 cancels the operation on the preview frame 512, and returns to the state where only the preview frame 511 is displayed (the state of FIG. 7A). In this case, no camera control command is generated and transmission is not performed. Then, the process flow ends.

S109にて、ビューワー端末3は、プレビュー枠511を削除し、プレビュー枠512のみを表示した状態に変更する。これに伴って、ビューワー端末3は、変更後のプレビュー枠をプレビュー枠511として扱う。具体的な動作として、マウスダウンがされた後、ドラッグせずにマウスダウンした位置のままマウスアップすると(S104にてNOかつS106にてYES)、図7(a)にて表示されていたプレビュー枠511が消える。そして、図7(c)に示すように新たなプレビュー枠がプレビュー枠511として表示される。   In S109, the viewer terminal 3 deletes the preview frame 511, and changes it to a state in which only the preview frame 512 is displayed. Along with this, the viewer terminal 3 treats the changed preview frame as the preview frame 511. As a specific operation, after mouse-down is performed, if mouse-up is performed while dragging the mouse down without dragging (NO in S104 and YES in S106), the preview displayed in FIG. The frame 511 disappears. Then, as shown in FIG. 7C, a new preview frame is displayed as the preview frame 511.

その後、S110にて、ビューワー端末3は、新たなプレビュー枠511に対応したカメラ制御を行うためにカメラ制御コマンドをカメラ装置1もしくはカメラ装置2に送信する。つまり、プレビュー枠算出部304が、新たなプレビュー枠511に対応するカメラ制御パラメーターを算出し、操作コマンド生成・解釈部306がその算出したパラメーター対応したカメラ制御コマンドを生成する。そして、通信部307が、生成したカメラ制御コマンドをカメラ装置1またはカメラ装置2に送信する。   Thereafter, in S110, the viewer terminal 3 transmits a camera control command to the camera device 1 or the camera device 2 in order to perform camera control corresponding to the new preview frame 511. That is, the preview frame calculation unit 304 calculates a camera control parameter corresponding to the new preview frame 511, and the operation command generation / interpretation unit 306 generates a camera control command corresponding to the calculated parameter. Then, the communication unit 307 transmits the generated camera control command to the camera device 1 or the camera device 2.

(プレビュー枠の枠内を指定した際の動作)
図10は、ユーザー操作により、プレビュー枠内をドラッグした時の画面の遷移を説明するための図である。図11は、図10に係る操作を行った際の処理を表すフローチャートである。
(Operation when the inside of the preview frame is specified)
FIG. 10 is a diagram for explaining the transition of the screen when the user drags the inside of the preview frame by the user operation. FIG. 11 is a flowchart showing processing when the operation according to FIG. 10 is performed.

S201にて、ビューワー端末3は、マウスダウンが行われたか否かを検知する。マウスダウンが行われていない場合は(S201にてNO)、本処理フローを終了する。マウスダウンが行われた場合(S201にてYES)、S202にて、ビューワー端末3は、マウスダウン位置が、プレビュー枠511の枠内か否かを判定する。枠内でない場合(S202にてNO)本処理フローを終了する。枠内である場合(S202にてYES)、S203にて、ビューワー端末3は、プレビュー枠511と同じ位置、同じ大きさでプレビュー枠512を表示する。このとき、図10(a)に示すように、マウスカーソル520の形状が変化する。   In S201, the viewer terminal 3 detects whether or not mouse-down has been performed. If mouse-down has not been performed (NO in S201), this processing flow ends. If mouse down is performed (YES in S201), the viewer terminal 3 determines in S202 whether the mouse down position is within the frame of the preview frame 511 or not. If not within the frame (NO in S202), this processing flow ends. If it is within the frame (YES in S202), in S203, the viewer terminal 3 displays the preview frame 512 at the same position and the same size as the preview frame 511. At this time, as shown in FIG. 10A, the shape of the mouse cursor 520 changes.

その後、S204にて、ビューワー端末3は、ドラッグが行われたか否かを検知する。ドラッグが行われていない場合は(S204にてNO)、S206へ進む。ドラッグが行われた場合(S204にてYES)、S205にてビューワー端末3は、図10(b)のようにマウスカーソル520の動きに合わせてプレビュー枠511を平行移動させると共に、基準点508の位置に応じてプレビュー枠512を回転させて再描画する。このとき、プレビュー枠511、512に対応する視野範囲である曲面506の大きさ(つまり、ズーム位置)が維持されるように、プレビュー枠算出部304がプレビュー枠512の大きさを算出する。その後、S206へ進む。   Thereafter, in S204, the viewer terminal 3 detects whether a drag has been performed. If the drug is not being performed (NO in S204), the process proceeds to S206. When the drag is performed (YES in S204), the viewer terminal 3 moves the preview frame 511 in parallel according to the movement of the mouse cursor 520 as shown in FIG. The preview frame 512 is rotated and redrawn according to the position. At this time, the preview frame calculation unit 304 calculates the size of the preview frame 512 so that the size (that is, the zoom position) of the curved surface 506 which is the visual field range corresponding to the preview frames 511 and 512 is maintained. Then, it progresses to S206.

S206にて、ビューワー端末3は、マウスアップが行われたか否かを検知する。マウスアップが行われていない場合は(S206にてNO)S207へ進み、マウスアップが行われた場合には(S206にてYES)S209へ進む。   At S206, the viewer terminal 3 detects whether or not mouse-up has been performed. If mouse-up has not been performed (NO at S206), the process proceeds to S207, and if mouse-up has been performed (YES at S206), the process proceeds to S209.

S207にて、ビューワー端末3は、右クリックがされたか否かを判定する。右クリックがされてない場合は(S207にてNO)S204へ戻り、右クリックがされた場合は(S207にてYES)S208へ進む。S208にて、ビューワー端末3は、プレビュー枠512の操作をキャンセルし、プレビュー枠511のみが表示された状態(図10(a)の状態)に戻す。この場合は、カメラ制御コマンドは生成されず、送信も行われない。そして、本処理フローを終了する。   In S207, the viewer terminal 3 determines whether or not the right click has been made. If the right click is not performed (NO at S207), the process returns to S204, and if the right click is performed (YES at S207), the process proceeds to S208. In S208, the viewer terminal 3 cancels the operation of the preview frame 512, and returns to the state where only the preview frame 511 is displayed (the state of FIG. 10A). In this case, no camera control command is generated and transmission is not performed. Then, the process flow ends.

S209にて、ビューワー端末3は、プレビュー枠511を削除し、プレビュー枠512のみを表示した状態に変更する。これに伴って、ビューワー端末3は、変更後のプレビュー枠をプレビュー枠511として扱う。具体的な例として、図10(c)のように表示される。   In S209, the viewer terminal 3 deletes the preview frame 511 and changes it to a state in which only the preview frame 512 is displayed. Along with this, the viewer terminal 3 treats the changed preview frame as the preview frame 511. As a specific example, it is displayed as shown in FIG.

その後、S210にて、ビューワー端末3は、新たなプレビュー枠511に対応したカメラ制御を行うためにカメラ制御コマンドをカメラ装置1もしくはカメラ装置2に送信する。つまり、プレビュー枠算出部304が、新たなプレビュー枠511に対応するカメラ制御パラメーターを算出し、操作コマンド生成・解釈部306がその算出したパラメーターに対応したカメラ制御コマンドを生成する。そして、通信部307が、生成したカメラ制御コマンドをカメラ装置1またはカメラ装置2に送信する。   Thereafter, in S210, the viewer terminal 3 transmits a camera control command to the camera device 1 or the camera device 2 in order to perform camera control corresponding to the new preview frame 511. That is, the preview frame calculation unit 304 calculates a camera control parameter corresponding to the new preview frame 511, and the operation command generation / interpretation unit 306 generates a camera control command corresponding to the calculated parameter. Then, the communication unit 307 transmits the generated camera control command to the camera device 1 or the camera device 2.

(プレビュー枠の枠上をドラッグした際の動作)
図12は、ユーザー操作により、プレビュー枠上をドラッグした時の画面の遷移を説明するための図である。図13は、図12に係る操作を行った際の処理を表すフローチャートである。
(Operation when dragging on the preview frame)
FIG. 12 is a diagram for explaining the transition of the screen when the user drags on the preview frame by the user operation. FIG. 13 is a flowchart showing processing when the operation according to FIG. 12 is performed.

S301にて、ビューワー端末3は、マウスダウンが行われたか否かを検知する。マウスダウンが行われていない場合(S301にてNO)、本処理フローを終了する。マウスダウンが行われた場合(S301にてYES)、S302にて、ビューワー端末3は、マウスダウン位置が、プレビュー枠511の枠上か否かを判定する。枠上でない場合(S302にてNO)、本処理フローを終了する。枠上である場合(S302にてYES)、S303にて、ビューワー端末3は、プレビュー枠511と同じ位置、同じ大きさでプレビュー枠512を表示する。例えば、枠上でマウスダウンをした時点では、図12(a)のようにプレビュー枠511とプレビュー枠512が重畳表示され、このとき、マウスカーソル520の形状が変化する。   In S301, the viewer terminal 3 detects whether or not mouse-down has been performed. If mouse-down has not been performed (NO in S301), this processing flow ends. If mouse down is performed (YES in S301), the viewer terminal 3 determines in S302 whether the mouse down position is on the frame of the preview frame 511 or not. If it is not on the frame (NO in S302), this processing flow ends. If the frame is on the frame (YES in S302), in S303, the viewer terminal 3 displays the preview frame 512 at the same position and the same size as the preview frame 511. For example, when the mouse is down on the frame, the preview frame 511 and the preview frame 512 are superimposed and displayed as shown in FIG. 12A, and at this time, the shape of the mouse cursor 520 changes.

その後、S304にて、ビューワー端末3は、ドラッグが行われたか否かを検知する。ドラッグが行われていない場合は(S304にてNO)、S306へ進む。ドラッグが行われた場合は(S304にてYES)、S305にて、ビューワー端末3は、プレビュー枠512をマウスカーソル520の動きに合わせて拡大または縮小する。このとき、プレビュー枠算出部304は、図12(b)のように、基準点508の位置が変わらずマウスカーソル520が常にプレビュー枠512上になるように、ユーザー操作によるマウスカーソル520の動きに合わせてプレビュー枠512の大きさを調整する。その後、S306へ進む。S306以降の処理は、図10のS206以降の処理と同様であるため、ここでの説明は省略する。   Thereafter, in S304, the viewer terminal 3 detects whether a drag has been performed. If the drag is not performed (NO in S304), the process proceeds to S306. If a drag is performed (YES in S304), the viewer terminal 3 enlarges or reduces the preview frame 512 in accordance with the movement of the mouse cursor 520 in S305. At this time, as shown in FIG. 12B, the preview frame calculation unit 304 moves the mouse cursor 520 by user operation so that the mouse cursor 520 is always on the preview frame 512 without changing the position of the reference point 508. At the same time, the size of the preview frame 512 is adjusted. Then, it progresses to S306. Since the process after S306 is the same as the process after S206 of FIG. 10, the description here is omitted.

なお、図7〜図13を用いた例では、マウス操作を前提とした操作について記載した。しかし、マウス操作の代わりにタッチパネル操作による構成においては、例えば、マウスダウンをタップ、マウスアップをタップ解除、ドラッグをスワイプ、右クリックをタップしている指とは別の指での2点タップに置き換えることで本実施形態を適用できる。   In the example using FIGS. 7 to 13, the operation assuming the mouse operation is described. However, in the configuration based on touch panel operation instead of mouse operation, for example, tap mouse down, tap mouse up untap, drag swipe, double-tap with a finger different from the finger tapping right click The present embodiment can be applied by replacing.

<第二の実施形態>
次に、矩形と円形の全方位画像を切り換えながら、両方でプレビュー枠を用いてパン/チルト/ズーム制御、および画像切り出し制御が行え、更に、操作中以外は視野範囲を正確に表すプレビュー枠を表示する第二の実施形態について説明する。
Second Embodiment
Next, while switching between rectangular and circular omnidirectional images, pan / tilt / zoom control and image clipping control can be performed using the preview frame on both sides, and a preview frame that accurately represents the visual field range except during operation A second embodiment for displaying will be described.

システム構成、設置イメージ、全方位画像が円形または矩形で固定された場合のプレビュー枠操作時の処理は、第一の実施形態にて示した内容と共通のため説明を省略し、差分のみを説明する。   The system configuration, the installation image, and the process at the time of the preview frame operation when the omnidirectional image is fixed as a circle or a rectangle are the same as the contents shown in the first embodiment, so the description is omitted and only the difference is described. Do.

図14は、プレビュー枠を算出するための球体モデル、矩形の全方位画像、プレビュー枠の対応関係を表す図である。   FIG. 14 is a diagram showing a correspondence between a sphere model for calculating a preview frame, a rectangular omnidirectional image, and a preview frame.

プレビュー枠を算出するための球体モデル500および枠501は第一の実施形態にて示した図3と共通であるが、本実施形態では、射影面が球体モデルを取り囲む円筒530である点が異なる。円筒530上の枠532は球体の視野範囲内の曲面と幅が同じ矩形である。矩形の全方位画像540およびプレビュー枠542は、円筒530および枠532を平面に展開して高さ方向に圧縮したものに相当する。これは正距円筒図法と呼ばれる射影方式に相当し、チルト角度が等間隔の線531が円筒530上では下に行くほど間隔が広くなるのに対して、矩形の全方位画像540上では線541のように等間隔になる。   The sphere model 500 and the frame 501 for calculating the preview frame are the same as in FIG. 3 shown in the first embodiment, but in this embodiment, the projection plane is a cylinder 530 surrounding the sphere model. . The frame 532 on the cylinder 530 is a rectangle having the same width as the curved surface within the field of view of the sphere. The rectangular omnidirectional image 540 and the preview frame 542 correspond to those in which the cylinder 530 and the frame 532 are expanded in a plane and compressed in the height direction. This corresponds to a projection method called equidistant cylindrical projection, and while the lines 531 at equal intervals of tilt angle become wider on the cylinder 530 as they go down, the lines 541 on the rectangular omnidirectional image 540 become wider. It is equally spaced like.

図15は、本実施形態の円形の全方位画像上のプレビュー枠外でドラッグした際の画面の遷移を説明するための図である。   FIG. 15 is a diagram for explaining screen transition when dragging outside the preview frame on the circular omnidirectional image of the present embodiment.

処理の流れは第一の実施形態にて述べた図9のフローチャートと共通であるが、プレビュー枠511が矩形ではなく、図6のプレビュー枠516に相当するような形状である点が異なる。マウス操作の対象であるプレビュー枠512は矩形となるが、未操作時および操作完了後のプレビュー枠511は視野範囲を正確に表すように曲線で囲まれた枠になる。   The flow of the process is the same as that of the flowchart of FIG. 9 described in the first embodiment, except that the preview frame 511 is not rectangular and has a shape corresponding to the preview frame 516 of FIG. Although the preview frame 512, which is the target of the mouse operation, is a rectangle, the preview frame 511 when not operated and after the operation is a frame surrounded by a curve so as to accurately represent the visual field range.

図16は、本実施形態の矩形の全方位画像上のプレビュー枠内でドラッグした際の画面の遷移を説明するための図である。   FIG. 16 is a diagram for explaining screen transition when dragging is performed in the preview frame on the rectangular omnidirectional image according to the present embodiment.

処理の流れは第一の実施形態にて述べた図11のフローチャートと共通である。しかし、図15に示す円形の全方位画像上でのプレビュー枠と同様に、マウス操作の対象であるプレビュー枠542は矩形となるが、未操作時および操作完了後のプレビュー枠543は視野範囲を正確に表すように曲線で囲まれた枠になる。図16(a)に示すプレビュー枠543は、画面の下部に移動させることにより、図14に示した構成の特性上、図16(d)に示すように幅広の状態となる。   The flow of processing is the same as the flow chart of FIG. 11 described in the first embodiment. However, as in the preview frame on the circular omnidirectional image shown in FIG. 15, the preview frame 542 which is the target of the mouse operation is rectangular, but the preview frame 543 at the time of non-operation and after completion of the operation It will be a box surrounded by a curve to accurately represent it. By moving the preview frame 543 shown in FIG. 16 (a) to the lower part of the screen, it becomes wide as shown in FIG. 16 (d) due to the characteristics of the configuration shown in FIG.

図17は、矩形の全方位画像と円形の全方位画像を自動切換する場合の画面例を示す。図18は図17に係る処理を表すフローチャートである。   FIG. 17 shows an example of a screen in the case of automatically switching between a rectangular omnidirectional image and a circular omnidirectional image. FIG. 18 is a flowchart showing the process according to FIG.

全方位画像表示部302は、ビューワー画面600を表示する。図17(a)に示すように、矩形の全方位画像は、矩形全方位タブ610が選択された際に表示される。図17(b)に示すように、円形の全方位画像は、円形全方位タブ620が選択された際に表示される。プルダウンリスト630でタブを自動切換するか否かを選択することができる。各全方位画像には同じチルト角度を表す区切り線550が表示される。プルダウンリスト630で「自動切換」を選んだ場合はプレビュー枠が区切り線550をまたぐか否かで自動的にタブが切り換えられる。この区切り線550は、プレビュー枠に対応する画像に対する視線方向もしくは視野範囲と、全方位画像の中心との距離が所定の範囲に収まる範囲を示している。ここでの所定の範囲は、画像の歪みを考慮して予め定義されているものとする。   The omnidirectional image display unit 302 displays the viewer screen 600. As shown in FIG. 17A, the rectangular omnidirectional image is displayed when the rectangular omnidirectional tab 610 is selected. As shown in FIG. 17B, a circular omnidirectional image is displayed when the circular omnidirectional tab 620 is selected. In pull-down list 630, it is possible to select whether to automatically switch tabs. In each omnidirectional image, a dividing line 550 representing the same tilt angle is displayed. When “automatic switching” is selected in the pull-down list 630, the tab is automatically switched depending on whether the preview frame straddles the dividing line 550 or not. The dividing line 550 indicates a range in which the distance between the viewing direction or the viewing range with respect to the image corresponding to the preview frame and the center of the omnidirectional image falls within a predetermined range. The predetermined range here is assumed to be previously defined in consideration of the distortion of the image.

「自動選択」を選んでいない場合は、プレビュー枠に対する移動等の指示を行ったとしても自動的な表示の切り替えは行われない。その他、ユーザーは任意のタイミングでタブを選択することで、いずれかの表示に切り替えることができるものとする。   If "automatic selection" is not selected, automatic display switching is not performed even if an instruction such as movement to the preview frame is issued. In addition, it is assumed that the user can switch to any display by selecting a tab at any time.

図18のフローチャートはプレビュー枠の枠内をドラッグした場合の処理を表す。図11のフローチャートからS401、S402が追加されている。ここでは、重複する処理に関しては、同じ参照番号を付与し説明を省略する。   The flowchart in FIG. 18 shows the processing in the case where the inside of the preview frame is dragged. S401 and S402 are added from the flowchart of FIG. Here, the same reference numerals are assigned to duplicate processes, and the description is omitted.

S206にて、マウスアップを検知すると(S206にてYES)、S401にて、ビューワー端末3は、移動させたプレビュー枠の基準点508の位置が区切り線550を超えたか否かを判定する。例えば、矩形の全方位画像の場合、基準点508の位置が区切り線550の下側に移動した場合に超えたと判定する。また、円形の全方位画像の場合は、基準点508の位置が区切り線550の外側に移動した場合に超えたと判定する。超えた場合には(S401にてYES)S402へ進み、超えていない場合には(S401にてNO)S209へ進む。   If mouse-up is detected in S206 (YES in S206), the viewer terminal 3 determines in S401 whether or not the position of the reference point 508 of the moved preview frame has exceeded the dividing line 550. For example, in the case of a rectangular omnidirectional image, it is determined that the position of the reference point 508 is exceeded when it moves below the dividing line 550. In addition, in the case of a circular omnidirectional image, it is determined that the position of the reference point 508 has exceeded when moved to the outside of the dividing line 550. If it exceeds (YES in S401), the process proceeds to S402, and if it does not exceed (NO in S401), the process proceeds to S209.

S402にて、ビューワー端末3は、もう一方のタブに切り換え、その選択された表示形態にてその後の処理が行われる。具体的には、矩形の全方位画像が表示されていた場合には、円形の全方位画像に表示を切り替える。逆の場合も同様である。その後、S210へ進む。なお、区切り線550をまたいだか否かの判定は、プレビュー枠のいずれかの頂点、またはプレビュー枠全体が区切り線550を超えるか否かで判定してもよい。   At S402, the viewer terminal 3 switches to the other tab, and the subsequent processing is performed in the selected display form. Specifically, when a rectangular omnidirectional image is displayed, the display is switched to a circular omnidirectional image. The same is true for the opposite case. Then, it progresses to S210. The determination as to whether or not the dividing line 550 is crossed may be made based on whether any vertex of the preview frame or the entire preview frame exceeds the dividing line 550.

この表示の切り替えにより、プレビュー枠の形状は、円形の全方位画像上では図15(a)のプレビュー枠511で示したような狭い形状で表示されることを避けることができる。同様に、矩形の全方位画像上では図15(d)のプレビュー枠543で示したような幅の広い形状で表示されることを避けることができる。その結果、視野範囲内の映像の歪みが大きくなりすぎることがなくなる。   By switching the display, the shape of the preview frame can be prevented from being displayed in a narrow shape as shown by the preview frame 511 in FIG. 15A on a circular omnidirectional image. Similarly, on a rectangular omnidirectional image, it can be avoided that the image is displayed in a wide shape as shown by the preview frame 543 in FIG. As a result, the distortion of the image in the field of view does not become too large.

以上、本発明の一実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形、及び変更が可能である。   As mentioned above, although one embodiment of the present invention was described, the present invention is not limited to these embodiments, and various modification and change are possible within the limits of the gist.

<その他の実施形態>
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other Embodiments>
The present invention is also realized by performing the following processing. That is, software (program) for realizing the functions of the above-described embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU or the like) of the system or apparatus reads the program. It is a process to execute.

1、2・・・カメラ装置、3・・・ビューワー装置、301・・・メイン画像表示部、302・・・全方位画像表示部、303・・・画像伸長部、304・・・プレビュー枠算出部、305・・・操作入力部、306・・・操作コマンド生成・解釈部、307・・・通信部 1, 2 ... camera device, 3 ... viewer device, 301 ... main image display unit, 302 ... omnidirectional image display unit, 303 ... image decompression unit, 304 ... preview frame calculation Unit 305: Operation input unit 306: Operation command generation / interpretation unit 307: Communication unit

Claims (16)

ネットワークを介してカメラ装置に接続された情報処理装置であって、
前記カメラ装置が撮影した全方位画像を取得する取得手段と、
前記取得手段にて取得した全方位画像を表示手段の表示画面に表示させる表示処理手段と、
前記表示画面にて表示された全方位画像に重畳されるであって、前記全方位画像から切り出される所定の視野範囲の部分画像の位置を決定するための枠に対するユーザー操作の検出に応じて、前記全方位画像に重畳される枠および当該に対応する前記部分画像の切り替えを行う制御手段と
を備え、
前記表示処理手段は、ユーザー操作を受け付けている間は、矩形の前記枠を前記表示画面に表示させ、前記枠に対するユーザー操作を受け付けていない間は、当該枠を、当該枠に対応する視野範囲に基づく、少なくとも一部が曲線で構成された形状で前記表示画面に表示させることを特徴とする情報処理装置。
An information processing apparatus connected to a camera apparatus via a network,
Acquisition means for acquiring an omnidirectional image captured by the camera device;
Display processing means for displaying the omnidirectional image acquired by the acquisition means on the display screen of the display means;
In response to detection of a user operation on a frame superimposed on an omnidirectional image displayed on the display screen, the frame for determining the position of a partial image of a predetermined visual field range cut out from the omnidirectional image A frame to be superimposed on the omnidirectional image , and control means for switching the partial image corresponding to the frame ;
The display processing means displays the rectangular frame on the display screen while receiving the user operation, and while the user operation with respect to the frame is not received, the frame corresponds to the visual field range corresponding to the frame. based on the information processing apparatus according to claim Rukoto is displayed on the display screen in the form at least part of which is constituted by a curve.
前記表示画面にて表示された全方位画像に重畳される枠に対するユーザー操作に応じて、前記カメラ装置への制御コマンドを生成する生成手段と、
前記生成手段にて生成された制御コマンドを前記カメラ装置へ送信する送信手段と
を更に有し、
前記取得手段は、前記送信手段にて送信された制御コマンドに従って制御された前記カメラ装置から新たな画像を取得することを特徴とする請求項1に記載の情報処理装置。
Generation means for generating a control command to the camera device according to a user operation on a frame superimposed on an omnidirectional image displayed on the display screen;
And transmission means for transmitting the control command generated by the generation means to the camera device.
The information processing apparatus according to claim 1, wherein the acquisition unit acquires a new image from the camera device controlled according to the control command transmitted by the transmission unit.
前記制御コマンドは、パン、チルト、およびズームのいずれかに関する制御のためのコマンドであることを特徴とする請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the control command is a command for control regarding any of pan, tilt, and zoom. 前記表示処理手段は、前記枠に対するユーザー操作を受け付けている間は、当該ユーザー操作が完了するまで、元の位置の枠およびユーザー操作を受け付けている間の枠の両方を識別可能に表示することを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。The display processing means displays both the original position frame and the frame while receiving the user operation so as to be distinguishable until the user operation is completed while the user operation for the frame is received. The information processing apparatus according to any one of claims 1 to 3, wherein 前記ユーザー操作は、前記表示画面に対するマウス操作もしくはタッチパネル操作により行われることを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。The information processing apparatus according to any one of claims 1 to 4, wherein the user operation is performed by a mouse operation or a touch panel operation on the display screen. 前記全方位画像に重畳される前記枠は、前記カメラ装置を取り囲む球体モデルにて表される視野範囲を、前記全方位画像に射影して得られることを特徴とする請求項1乃至5のいずれか一項に記載の情報処理装置。The said frame superimposed on the said omnidirectional image is obtained by projecting the visual field range represented by the spherical body model surrounding the said camera apparatus on the said omnidirectional image. The information processing apparatus according to any one of the items. 前記球体モデルと視線方向が交差する点を前記全方位画像に射影した点を前記の基準点とし、
前記制御手段は、ユーザー操作により前記の枠外の第一の位置を指示された場合、前記第一の位置を新たな前記の基準点とし、前記が前記全方位画像の中心位置に対する前記第一の位置の方向に応じた向きとなり、かつ、元の画角を維持する大きさに変更されるように、前記の表示および当該に対応する画像を切り替えることを特徴とする請求項に記載の情報処理装置。
A point obtained by projecting the point at which the spherical model intersects the viewing direction onto the omnidirectional image is set as a reference point of the frame ,
When the control unit indicates a first position outside the frame by the user operation, the control unit determines the first position as a new reference point of the frame , and the frame corresponds to the center position of the omnidirectional image. It becomes the direction corresponding to the direction of the first position, and claims to be changed to a size to maintain the original angle, and switches the image corresponding to the display and the frame of the frame The information processing apparatus according to 6 .
前記球体モデルと視線方向が交差する点を前記全方位画像に射影した点を前記の基準点とし、
前記制御手段は、ユーザー操作により前記の枠内の第一の位置が指示され、更に、前記第一の位置とは異なる前記全方位画像内の第二の位置が指示された場合、前記の基準点を前記第二の位置へ平行移動させると共に、前記第一の位置と前記第二の位置の距離と方向に応じて前記を前記全方位画像の中心位置に対する前記の基準点の方向に応じた向きに回転させ、元の画角を維持する大きさに変更されるように、前記の表示および当該に対応する前記部分画像を切り替えることを特徴とする請求項に記載の情報処理装置。
A point obtained by projecting the point at which the spherical model intersects the viewing direction onto the omnidirectional image is set as a reference point of the frame ,
The control means is configured such that, when a user's operation indicates a first position in the frame of the frame and further indicates a second position in the omnidirectional image different from the first position, the frame of the reference point is moved parallel to the second position, the reference point of the frame with respect to the center position of the omnidirectional image the frame in accordance with the distance and direction of the second position and the first position rotate the direction corresponding to the direction, as changed to a size to maintain the original angle, according to claim 6, characterized in that switching the partial image corresponding to the display and the frame of the frame Information processing equipment.
前記球体モデルと視線方向が交差する点を前記全方位画像に射影した点を前記の基準点とし、
前記制御手段は、ユーザー操作により前記の枠外の第一の位置が指示され、更に、前記第一の位置とは異なる前記全方位画像内の第二の位置が指示された場合、前記第一の位置を新たな前記の基準点とし、前記が前記全方位画像の中心位置に対する前記第一の位置の方向に応じた向きとなり、かつ、前記の大きさが前記第一の位置と前記第二の位置との距離に応じて変更されるように、前記の表示および当該に対応する前記部分画像を切り替えることを特徴とする請求項に記載の情報処理装置。
A point obtained by projecting the point at which the spherical model intersects the viewing direction onto the omnidirectional image is set as a reference point of the frame ,
The control means is configured such that a first position outside the frame is indicated by a user operation, and a second position in the omnidirectional image different from the first position is indicated. Position of the frame as a new reference point of the frame , the frame is oriented according to the direction of the first position with respect to the center position of the omnidirectional image, and the size of the frame is the first position and as it is changed according to the distance between the second position, the information processing apparatus according to claim 6, characterized in that switching the partial image corresponding to the display and the frame of the frame.
前記球体モデルと視線方向が交差する点を前記全方位画像に射影した点を前記の基準点とし、
前記制御手段は、ユーザー操作により前記の枠上の第一の位置が指示され、更に、前記第一の位置とは異なる前記全方位画像内の第二の位置が指示された場合、前記の基準点および前記の前記全方位画像の中心位置に対する向きを維持しつつ、前記の大きさが前記第一の位置と前記第二の位置の距離に応じて変更されるように、前記の表示および当該に対応する前記部分画像を切り替えることを特徴とする請求項に記載の情報処理装置。
A point obtained by projecting the point at which the spherical model intersects the viewing direction onto the omnidirectional image is set as a reference point of the frame ,
Wherein if the first position on the frame of the frame by the user operation is instructed, further, the second position in different the omnidirectional image and the first position is instructed, the frame said reference point and said frame while maintaining the orientation with respect to the center position of the omnidirectional image, so that the size of the frame is changed according to the distance of the second position and the first position, the 7. The information processing apparatus according to claim 6 , wherein a frame is displayed and the partial image corresponding to the frame is switched.
前記矩形の枠は、前記球体モデルにて表される視野範囲を、前記全方位画像に射影して直線で結んだ矩形の枠であり、The rectangular frame is a rectangular frame in which the visual field range represented by the spherical model is projected onto the omnidirectional image and connected by a straight line,
前記少なくとも一部が曲線で構成された形状は、前記球体モデルにて示される視野範囲の曲面の領域としての矩形でない形状であるThe shape of which at least a portion is composed of a curve is a non-rectangular shape as a region of the curved surface of the field of view shown in the sphere model
ことを特徴とする請求項6に記載の情報処理装置。7. An information processing apparatus according to claim 6, wherein:
ネットワークを介してカメラ装置に接続された情報処理装置であって、
前記カメラ装置が撮影した全方位画像を取得する取得手段と、
前記取得手段にて取得した全方位画像を表示手段の表示画面に表示させる表示処理手段と、
前記表示画面にて表示された全方位画像に重畳される枠であって、前記全方位画像から切り出される画像に対応する枠に対するユーザー操作の検出に応じて、前記全方位画像に重畳される枠および当該枠に対応する前記画像の切り替えを行う制御手段と
を備え、
前記全方位画像に重畳される枠は、前記カメラ装置を取り囲む球体モデルにて表される視野範囲を、前記全方位画像に射影して得られ、
前記表示処理手段は、全方位画像を矩形および円形のいずれかにて切り替えて前記表示画面に表示させることが可能であり、
前記表示処理手段は、前記に対応する画像に対する視線方向もしくは視野範囲と円形の全方位画像の中心との距離が所定の範囲に収まる場合は円形の全方位画像を表示させ、前記所定の範囲に収まらない場合は矩形の全方位画像を表示するように切り替えることを特徴とする報処理装置。
An information processing apparatus connected to a camera apparatus via a network,
Acquisition means for acquiring an omnidirectional image captured by the camera device;
Display processing means for displaying the omnidirectional image acquired by the acquisition means on the display screen of the display means;
A frame to be superimposed on an omnidirectional image displayed on the display screen, the frame being superimposed on the omnidirectional image according to detection of a user operation on a frame corresponding to an image cut out from the omnidirectional image And control means for switching the image corresponding to the frame
Equipped with
The frame superimposed on the omnidirectional image is obtained by projecting the visual field range represented by a spherical model surrounding the camera device onto the omnidirectional image,
It said display processing means can be displayed on the display screen by switching the omnidirectional image in either rectangular or round,
The display processing means displays a circular omnidirectional image when the distance between the visual line direction or the visual field range and the center of the circular omnidirectional image with respect to the image corresponding to the frame falls within the predetermined range, and the predetermined range If it does not fit on information processing device and switches to display the omnidirectional image of the rectangle.
前記表示手段による矩形および円形のいずれかの全方位画像を自動的に切り替えて表示するか否かの設定を受け付ける手段を更に有し、
前記表示処理手段は、前記設定に応じて切り替えを行うことを特徴とする請求項12に記載の情報処理装置。
The apparatus further comprises means for accepting setting of whether to automatically switch and display any rectangular or circular omnidirectional image by the display means.
The information processing apparatus according to claim 12 , wherein the display processing unit performs switching in accordance with the setting.
ネットワークを介してカメラ装置に接続された情報処理装置の制御方法であって、
前記カメラ装置が撮影した全方位画像を取得する取得工程と、
前記取得工程にて取得した全方位画像を表示手段の表示画面に表示させる表示処理工程と、
前記表示画面にて表示された全方位画像に重畳されるであって、前記全方位画像から切り出される所定の視野範囲の部分画像の位置を決定するための枠に対するユーザー操作に応じて、前記全方位画像に重畳される枠および当該に対応する前記部分画像の切り替えを行う制御工程と
を有し、
前記表示処理工程において、ユーザー操作を受け付けている間は、矩形の前記枠を前記表示画面に表示させ、前記枠に対するユーザー操作を受け付けていない間は、当該枠を、当該枠に対応する視野範囲に基づく、少なくとも一部が曲線で構成された形状で前記表示画面に表示させることを特徴とする情報処理装置の制御方法。
A control method of an information processing apparatus connected to a camera apparatus via a network,
An acquisition step of acquiring an omnidirectional image captured by the camera device;
A display processing step of displaying the omnidirectional image acquired in the acquisition step on the display screen of the display means;
A frame to be superimposed on an omnidirectional image displayed on the display screen, the frame being responsive to a user operation on the frame for determining the position of a partial image of a predetermined visual field range cut out from the omnidirectional image A frame to be superimposed on the omnidirectional image , and a control step of switching the partial image corresponding to the frame ;
In the display processing step, while the user operation is received, the rectangular frame is displayed on the display screen, and while the user operation with respect to the frame is not received, the frame is a visual field range corresponding to the frame. based on the control method for the information processing apparatus according to claim Rukoto is displayed on the display screen in the form at least part of which is constituted by a curve.
ネットワークを介してカメラ装置に接続された情報処理装置の制御方法であって、A control method of an information processing apparatus connected to a camera apparatus via a network,
前記カメラ装置が撮影した全方位画像を取得する取得工程と、An acquisition step of acquiring an omnidirectional image captured by the camera device;
前記取得工程にて取得した全方位画像を表示手段の表示画面に表示させる表示処理工程と、A display processing step of displaying the omnidirectional image acquired in the acquisition step on the display screen of the display means;
前記表示画面にて表示された全方位画像に重畳される枠であって、前記全方位画像から切り出される画像に対応する枠に対するユーザー操作の検出に応じて、前記全方位画像に重畳される枠および当該枠に対応する前記画像の切り替えを行う制御工程とA frame to be superimposed on an omnidirectional image displayed on the display screen, the frame being superimposed on the omnidirectional image according to detection of a user operation on a frame corresponding to an image cut out from the omnidirectional image And a control step of switching the image corresponding to the frame
を有し、Have
前記全方位画像に重畳される枠は、前記カメラ装置を取り囲む球体モデルにて表される視野範囲を、前記全方位画像に射影して得られ、The frame superimposed on the omnidirectional image is obtained by projecting the visual field range represented by a spherical model surrounding the camera device onto the omnidirectional image,
前記表示処理工程において、全方位画像を矩形および円形のいずれかにて切り替えて前記表示画面に表示させることが可能であり、In the display processing step, it is possible to switch an omnidirectional image with either a rectangle or a circle and to display the image on the display screen.
前記表示処理工程において、前記枠に対応する画像に対する視線方向もしくは視野範囲と円形の全方位画像の中心との距離が所定の範囲に収まる場合は円形の全方位画像を表示させ、前記所定の範囲に収まらない場合は矩形の全方位画像を表示するように切り替えることを特徴とする情報処理装置の制御方法。In the display processing step, a circular omnidirectional image is displayed when the distance between the viewing direction or the visual field range to the image corresponding to the frame and the center of the circular omnidirectional image falls within the predetermined range, and the predetermined range is displayed. The control method of an information processing apparatus characterized by switching so as to display a rectangular omnidirectional image when the image does not fit into.
コンピュータを、請求項1乃至13のいずれか一項に記載の情報処理装置の各手段として制御するためのプログラム。 A program for controlling a computer as each means of the information processing apparatus according to any one of claims 1 to 13.
JP2015130327A 2015-06-29 2015-06-29 INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM Active JP6543108B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015130327A JP6543108B2 (en) 2015-06-29 2015-06-29 INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015130327A JP6543108B2 (en) 2015-06-29 2015-06-29 INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2017017446A JP2017017446A (en) 2017-01-19
JP6543108B2 true JP6543108B2 (en) 2019-07-10

Family

ID=57828286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015130327A Active JP6543108B2 (en) 2015-06-29 2015-06-29 INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6543108B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6968610B2 (en) * 2017-08-01 2021-11-17 キヤノン株式会社 Imaging equipment, information processing methods and programs
US10574881B2 (en) * 2018-02-15 2020-02-25 Adobe Inc. Smart guide to capture digital images that align with a target image model
JP7085865B2 (en) * 2018-03-09 2022-06-17 キヤノン株式会社 Image processing device, image processing method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005192057A (en) * 2003-12-26 2005-07-14 D Link Corp Method and apparatus for segmented display of spatial image
JP2008011497A (en) * 2006-06-01 2008-01-17 Canon Inc Camera apparatus
JP2008033607A (en) * 2006-07-28 2008-02-14 Opt Kk Imaging apparatus and imaging system
JP2008187393A (en) * 2007-01-29 2008-08-14 Sony Corp Exposure control system, exposure control method, its program and recording medium, camera control system and camera
JP5338498B2 (en) * 2009-06-09 2013-11-13 ソニー株式会社 Control device, camera system and program used in surveillance camera system
JP5974433B2 (en) * 2011-08-03 2016-08-23 日本精機株式会社 Peripheral image display device
JP2013070342A (en) * 2011-09-26 2013-04-18 Sony Corp Image processing device, image processing method, and program
JP2015072561A (en) * 2013-10-02 2015-04-16 シャープ株式会社 Information processor

Also Published As

Publication number Publication date
JP2017017446A (en) 2017-01-19

Similar Documents

Publication Publication Date Title
US9532008B2 (en) Display control apparatus and display control method
JP6065195B2 (en) Display image forming apparatus and display image forming method
JP3566451B2 (en) Camera control system and camera control system control method
CN106454065B (en) Information processing apparatus and control method thereof
KR20110108265A (en) Control device, camera system and program
RU2664770C1 (en) Control device, device control method and program
US9906710B2 (en) Camera pan-tilt-zoom (PTZ) control apparatus
US10924652B2 (en) Monitoring apparatus and monitoring system
JP6543108B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP2016096481A (en) Control apparatus, photographing system, control method, and program
CN109565569B (en) Monitoring device and system
US10425608B2 (en) Image processing method and camera
JP2009049798A (en) Camera control method, camera control device, camera control program, and camera system
JP6504793B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2018174468A (en) Video display unit, and control method, and program therefor
JP2013085041A (en) Information processing apparatus, processing method thereof, and program
JP2017182843A (en) Program, display control device, and display control method
JP2011142685A (en) Camera control system, method thereof and storage medium with its operation processing program stored thereon
JP2008059095A (en) Monitoring and control system having image navigation function, and method for operating monitoring screen for the same
JP2019191509A (en) Video display device, video display method, computer program, and storage medium
JP2015228549A (en) Information processing device for controlling camera, method therefor, program and storage medium
JPH09107590A (en) Remote control system
JP2020061739A (en) Display device and computer program
JP2007110284A (en) Camera control system
JP5397245B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190614

R151 Written notification of patent or utility model registration

Ref document number: 6543108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151