JP2015228549A - Information processing device for controlling camera, method therefor, program and storage medium - Google Patents

Information processing device for controlling camera, method therefor, program and storage medium Download PDF

Info

Publication number
JP2015228549A
JP2015228549A JP2014112623A JP2014112623A JP2015228549A JP 2015228549 A JP2015228549 A JP 2015228549A JP 2014112623 A JP2014112623 A JP 2014112623A JP 2014112623 A JP2014112623 A JP 2014112623A JP 2015228549 A JP2015228549 A JP 2015228549A
Authority
JP
Japan
Prior art keywords
image
display
camera
camera device
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014112623A
Other languages
Japanese (ja)
Inventor
大西 元大
Motohiro Onishi
元大 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014112623A priority Critical patent/JP2015228549A/en
Publication of JP2015228549A publication Critical patent/JP2015228549A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable easy zoom control of a camera to both telescopic direction and wide-angle direction with an operation on an image only, and to enable easy camera control with a finger operation on a touch panel.SOLUTION: An information processing device which executes the control of a camera device through a network includes: display control means for controlling processing to move the image, displayed on a display, or change a magnitude according to a user operation; and generation means for generating a control command to control the imaging position of the camera device, in association with the processing of the image movement or the magnitude change processed by the display control means.

Description

本発明は、例えばネットワークカメラなどの撮像装置から配信され、情報処理装置上に表示された画像の拡大・縮小操作に対応して、撮像装置のパン、チルト、ズームの制御を行う技術に関する。   The present invention relates to a technique for controlling panning, tilting, and zooming of an imaging apparatus in response to an enlargement / reduction operation of an image distributed from an imaging apparatus such as a network camera and displayed on an information processing apparatus.

近年のネットワークカメラシステムは、ネットワークを介して遠隔のカメラの画像を取り込み、その画像をモニタに表示させるとともに、パン、チルト、ズームなどのカメラ制御を行うことができる。   A recent network camera system can capture an image of a remote camera via a network, display the image on a monitor, and perform camera control such as panning, tilting, and zooming.

ネットワークカメラには、モニタに表示された遠隔の画像の中から、ユーザが任意の部分を矩形で囲む指定操作をすることにより、遠隔のカメラのズームの制御が行われ、その囲まれた部分のズームインされた画像をモニタに映し出す機能がある。   In the network camera, the zoom control of the remote camera is controlled by the user performing a designation operation to enclose an arbitrary part in a rectangle from the remote image displayed on the monitor. There is a function to display a zoomed-in image on a monitor.

また、例えば、特許文献1では、カメラの撮影可能範囲全体の画像を表示し、画像に重畳された矩形を移動させることにより拡大・縮小する機能を持つ携帯端末が開示されている。   Further, for example, Patent Document 1 discloses a portable terminal having a function of displaying an image of the entire shootable range of a camera and enlarging / reducing it by moving a rectangle superimposed on the image.

特開2005−20099号公報JP 2005-200999 A

しかしながら、画像上の任意の部分を矩形で囲むことによりカメラのズームを制御する場合、望遠方向へのカメラ制御のみしか行えず、広角方向へのカメラのズーム制御が行えなかった。   However, when the zoom of the camera is controlled by surrounding an arbitrary part on the image with a rectangle, only the camera control in the telephoto direction can be performed, and the zoom control of the camera in the wide angle direction cannot be performed.

また、上記の従来技術では、画像上でしか矩形が描けないため、画像の範囲外へのカメラの撮像方向の制御が行えなかった。さらに、タッチパネルを搭載した携帯用の情報処理装置において指で矩形を描く場合、ズーム倍率の高いカメラで望遠端にカメラ制御する場合には、小さい矩形を描く必要がある。しかし、指によるタッチパネル操作では、携帯用のディスプレイが小さいため、マウスに比べて細かい位置指定が難しく、かつ描画中に矩形が指で隠れてしまう問題もある。   Further, in the above-described prior art, since a rectangle can be drawn only on the image, it is impossible to control the imaging direction of the camera outside the range of the image. Further, when a rectangle is drawn with a finger in a portable information processing apparatus equipped with a touch panel, it is necessary to draw a small rectangle when the camera is controlled at the telephoto end with a camera having a high zoom magnification. However, in the touch panel operation with a finger, since a portable display is small, it is difficult to specify a fine position as compared with a mouse, and there is a problem that a rectangle is hidden with a finger during drawing.

また、特許文献1のように、携帯端末用の小さなディスプレイを用いてカメラを操作する場合、操作性の観点からカメラの撮影可能全範囲の画像より視認性の高い画像を用いてカメラの操作をしたいという要望がある。   In addition, as in Patent Document 1, when a camera is operated using a small display for a portable terminal, the camera is operated using an image having higher visibility than an image of the entire range that can be captured by the camera from the viewpoint of operability. There is a request to do.

本発明の目的は、画像の操作だけで望遠方向と広角方向の両方のカメラ制御を行えるようにするとともに、タッチパネルでの指による操作でも簡単にカメラ制御が行えるエリアズーム機能を提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide an area zoom function that enables camera control in both the telephoto direction and the wide-angle direction only by operating an image and that can be easily controlled by finger operation on a touch panel. .

本願発明によれば、ネットワークを介してカメラ装置の制御を実行する情報処理装置であって、前記カメラ装置から取得した画像を表示する表示手段と、ユーザの操作に応じて、前記表示手段によって表示されるべき画像の移動または大きさの変更の処理を制御する表示制御手段と、前記表示制御手段によって処理された前記画像の移動または大きさの変更の処理に対応して、前記カメラ装置の撮影位置を制御するための制御コマンドを生成する生成手段とを有することを特徴とする。   According to the present invention, there is provided an information processing apparatus that performs control of a camera device via a network, the display unit displaying an image acquired from the camera device, and the display unit displaying the image in response to a user operation. Display control means for controlling the process of moving or changing the size of the image to be performed, and shooting by the camera device corresponding to the process of moving or changing the size of the image processed by the display control means And generating means for generating a control command for controlling the position.

本発明によれば、画像上の操作だけで望遠方向と広角方向の両方のカメラのズーム制御を容易に実行できる。さらに、タッチパネルでの指による操作でも簡単にカメラの制御が行うことができる。   According to the present invention, it is possible to easily execute zoom control of both the telephoto and wide-angle cameras only by an operation on an image. Furthermore, the camera can be easily controlled even by an operation with a finger on the touch panel.

ネットワークカメラシステムの構成図Configuration diagram of network camera system クライアント端末装置のディスプレイ上の表示例Display example on the display of the client terminal クライアント端末装置のディスプレイ上の表示例Display example on the display of the client terminal クライアント端末装置のディスプレイ上の表示例Display example on the display of the client terminal クライアント端末装置のディスプレイ上の表示例Display example on the display of the client terminal 表示画像に対してユーザの操作を検出したときのクライアント端末装置の処理を示すフローチャートThe flowchart which shows the process of a client terminal device when a user's operation is detected with respect to a display image ユーザによる画像の縮小・拡大あるいは移動処理に対応するカメラの制御コマンドを生成するクライアント端末装置2の処理を示すフローチャートThe flowchart which shows the process of the client terminal device 2 which produces | generates the control command of the camera corresponding to the reduction / enlargement or movement process of the image by a user 制御前後のカメラ装置の撮影画角を説明するための図The figure for demonstrating the imaging | photography angle of view of the camera apparatus before and behind control 制御前後のカメラ装置の撮影画角を説明するための図The figure for demonstrating the imaging | photography angle of view of the camera apparatus before and behind control ネットワークカメラシステムの構成図Configuration diagram of network camera system クライアント端末装置の処理を示すフローチャートFlow chart showing processing of client terminal device カメラ装置の撮影位置と可動範囲、およびパノラマ画像の位置関係を表す図The figure showing the positional relationship between the shooting position and movable range of the camera device and the panoramic image クライアント端末装置のハードウエア構成の一例Example of hardware configuration of client terminal device

以下に、発明を実施するため形態を、添付の図面に基づいて詳細に説明する。
第1の実施の形態では、所定のサイズで表示部に表示されるカメラ装置からの画像を、ユーザによる操作により、例えば表示部のディスプレイの表示領域に対して相対的に移動させたり、拡大あるいは縮小させたりするシステムに関して説明する。この第1の実施の形態では、このディスプレイ上の予め定められた画像の表示領域に対する相対的な画像の移動・拡大縮小に対応してカメラ装置のパンチルトズームが制御される。
EMBODIMENT OF THE INVENTION Below, the form for inventing is demonstrated in detail based on attached drawing.
In the first embodiment, an image from the camera device displayed on the display unit with a predetermined size is moved relative to the display area of the display unit, for example, enlarged, A system for reducing the size will be described. In the first embodiment, pan / tilt / zoom of the camera device is controlled in response to image movement / enlargement / reduction relative to a predetermined image display area on the display.

図1は第1の実施形態のシステムの構成図である。   FIG. 1 is a configuration diagram of a system according to the first embodiment.

カメラ装置1は、ネットワーク3を介してカメラ装置1の画像の閲覧および操作を行うための情報処理装置であるクライアント端末装置2と接続される。   The camera device 1 is connected to a client terminal device 2 that is an information processing device for browsing and operating an image of the camera device 1 via a network 3.

カメラ装置1は、レンズ101、撮像部102、画像圧縮部103、可動雲台104、カメラ制御部105、通信部106で構成される一般的な構成のカメラ装置である。レンズ101はズームレンズを有し、可動雲台104は撮像部102のパン制御とチルト制御を実現する。カメラ制御部105は、レンズ101、可動雲台102の制御により、パン、チルト、ズームを実行する。撮像部102はレンズを介して撮像素子上に結像した画像の取り込みとAD変換を行い、画像圧縮部103はデジタル変換された画像を配信しやすいデータサイズに圧縮する。通信部106はクライアント端末装置2に圧縮済みの画像を配信するとともに、クライアント端末装置2から送られてきた操作コマンドをカメラ制御部105に受け渡す。また、通信部106は、カメラ制御部105から受け取った各部の状態情報をクライアント端末装置2に送信する。例えば、現在のズーム倍率の値、ズーム倍率の最大値、現在のパンチルトの値、およびパンチルトの最大制御範囲に関する情報がクライアント端末装置2に送信される。   The camera device 1 is a camera device having a general configuration including a lens 101, an imaging unit 102, an image compression unit 103, a movable camera platform 104, a camera control unit 105, and a communication unit 106. The lens 101 has a zoom lens, and the movable camera platform 104 realizes pan control and tilt control of the imaging unit 102. The camera control unit 105 performs panning, tilting, and zooming by controlling the lens 101 and the movable camera platform 102. The image capturing unit 102 captures an image formed on the image sensor via a lens and performs AD conversion, and the image compression unit 103 compresses the digitally converted image to a data size that is easy to distribute. The communication unit 106 distributes the compressed image to the client terminal device 2 and transfers the operation command sent from the client terminal device 2 to the camera control unit 105. Further, the communication unit 106 transmits the status information of each unit received from the camera control unit 105 to the client terminal device 2. For example, information regarding the current zoom magnification value, the maximum zoom magnification value, the current pan / tilt value, and the maximum pan / tilt control range is transmitted to the client terminal device 2.

クライアント端末装置2は、表示部201、表示制御部203、画像伸長部204、操作コマンド生成・解釈部205、通信部206を備える。表示部201は、カメラ装置1から受信した撮影画像およびユーザによる操作のためのGUI(グラフィカルユーザインターフェース)を表示する。   The client terminal device 2 includes a display unit 201, a display control unit 203, an image decompression unit 204, an operation command generation / interpretation unit 205, and a communication unit 206. The display unit 201 displays a captured image received from the camera device 1 and a GUI (graphical user interface) for user operation.

表示制御部203は、ユーザの操作の検出に応じて画像の電子的な画像処理による表示画像の移動および大きさの変更処理を行うとともに、ユーザによる操作のためのGUIを生成して表示部201に表示する。画像伸長部204はカメラ装置1からの圧縮画像を伸長して表示制御部203に渡す。操作コマンド生成・解釈部205は通信部206から受け取ったカメラ装置1の状態を表示制御部203に渡すとともに、カメラ位置算出部208から受け取ったカメラ装置1に対する操作から通信用の操作コマンドを生成する。   The display control unit 203 performs display image movement and size change processing by electronic image processing of an image in response to detection of a user operation, and generates a GUI for the user operation to display the display unit 201. To display. The image decompression unit 204 decompresses the compressed image from the camera device 1 and passes it to the display control unit 203. The operation command generation / interpretation unit 205 passes the state of the camera device 1 received from the communication unit 206 to the display control unit 203 and generates an operation command for communication from the operation on the camera device 1 received from the camera position calculation unit 208. .

操作入力部207は、表示部201のディスプレイに対するユーザのタッチ操作を受け付ける。具体的には、ディスプレイに表示された撮影画像に対する電子的な画像処理による移動や拡大縮小などのためのユーザのタッチ操作を受け付ける。   The operation input unit 207 receives a user's touch operation on the display of the display unit 201. Specifically, it accepts a user's touch operation for movement or enlargement / reduction by electronic image processing on a captured image displayed on the display.

カメラ位置算出部208は、ユーザによる画像の移動や拡大縮小に対応したカメラ装置1の位置を算出する。具体的には、現在表示されている画像が撮影されたときのズーム倍率、ユーザによる撮影画像の画面上の移動量カメラ装置1の撮影位置(撮影方向)を算出する。また、カメラ位置算出部208は、現在表示されている画像が撮影されたときのズーム倍率、および表示領域のサイズに対するユーザによる画像の拡大あるいは縮小の割合に基づいて、カメラ装置1の制御されるべきズーム倍率を算出する。すなわち、画像処理によって移動した画像内の被写体と同じ位置にその被写体が撮影されるように、画像の移動量に対応するカメラ装置1の撮影方向が算出される。さらに、電子的に拡大あるいは縮小された画像内の被写体の大きさが同様となる画像を撮影するようにカメラ装置1のズーム倍率が算出される。   The camera position calculation unit 208 calculates the position of the camera device 1 corresponding to the image movement or enlargement / reduction by the user. Specifically, the zoom magnification when the currently displayed image is taken, and the moving position on the screen of the taken image by the user, the shooting position (shooting direction) of the camera device 1 are calculated. Further, the camera position calculation unit 208 is controlled by the camera device 1 based on the zoom magnification when the currently displayed image is taken and the ratio of enlargement or reduction of the image by the user with respect to the size of the display area. The power zoom magnification is calculated. That is, the shooting direction of the camera device 1 corresponding to the amount of movement of the image is calculated so that the subject is shot at the same position as the subject in the image moved by the image processing. Further, the zoom magnification of the camera device 1 is calculated so as to capture an image in which the size of the subject in the electronically enlarged or reduced image is the same.

なお、他の実施の形態として、パノラマ画像などのカメラ装置の可動範囲全体を示す画像を作成し、作成された画像から所望の一部の画像を切り出して出力することで、仮想的にパン、チルト、ズーム制御を行うカメラ装置に適用してもよい。その場合、カメラ位置算出部208は、撮影範囲全体の画像から切り出される画像が移動された画像の位置と一致し、かつ拡大あるいは縮小された画像内の被写体の大きさと一致するように切り出し画像の位置と大きさとを算出する。   As another embodiment, an image showing the entire movable range of the camera device, such as a panoramic image, is created, and a desired part of the image is cut out from the created image and output. You may apply to the camera apparatus which performs tilt and zoom control. In that case, the camera position calculation unit 208 matches the position of the clipped image so that the image cut out from the image of the entire shooting range matches the position of the moved image and the size of the subject in the enlarged or reduced image. Calculate position and size.

図2から図5において、表示部201のディスプレイ400に表示される画像およびGUIの一例が示されている。ディスプレイ400には、画像を表示する画像表示領域410、各種カメラ操作用のボタン420が表示される。図2において、カメラ装置1から送信された被写体412を含む画像411のサイズが画像表示領域410のサイズと同じ大きさかつ同じ位置に表示されている。ディスプレイ400は、タッチパネルによるマルチタッチ操作に対応している。例えば、二本の指それぞれのタップ位置413、414の画像表示領域410に対する位置を変更することで、被写体412を含む画像411の位置と大きさが変更される。   FIGS. 2 to 5 show examples of images and GUIs displayed on the display 400 of the display unit 201. The display 400 displays an image display area 410 for displaying images and buttons 420 for various camera operations. In FIG. 2, the size of the image 411 including the subject 412 transmitted from the camera device 1 is displayed in the same size and at the same position as the size of the image display area 410. The display 400 supports multi-touch operation using a touch panel. For example, the position and size of the image 411 including the subject 412 are changed by changing the positions of the tap positions 413 and 414 of the two fingers with respect to the image display area 410.

図3は、タップ位置413、414を互いに離れる方向に移動するピンチアウト操作を行った場合のディスプレイ400の表示例である。図3では、図2におけるタップ位置413、414間の距離と比較して、タップ位置413、414間の距離が増加している。図3では、この距離の増加に応じて画像411が画像処理によって拡大され、その結果、被写体412が画像表示領域410からはみ出している。実際には、画像表示領域401からはみ出して画像を表示することはできないため、画像表示領域410の範囲内の被写体412の部分だけが表示されることになる。なお、図3では、タップ位置413、414の中点は図2の場合と同じなので、画像表示領域410と画像411の中心は一致したままである。   FIG. 3 is a display example of the display 400 when a pinch-out operation for moving the tap positions 413 and 414 away from each other is performed. In FIG. 3, the distance between the tap positions 413 and 414 is increased compared to the distance between the tap positions 413 and 414 in FIG. 2. In FIG. 3, as the distance increases, the image 411 is enlarged by image processing, and as a result, the subject 412 protrudes from the image display area 410. Actually, since the image cannot be displayed outside the image display area 401, only the portion of the subject 412 within the range of the image display area 410 is displayed. In FIG. 3, since the midpoints of the tap positions 413 and 414 are the same as those in FIG. 2, the centers of the image display area 410 and the image 411 remain the same.

また、図3に示すようなユーザの操作中の場合、図2では表示されないインジケータ430、431が表示される。インジケータ430は画像411に対応し、インジケータ431は画像表示領域410に対応している。すなわち、インジケータ430、431によって画像処理によって拡大された画像411と画像表示領域410との相対的な位置および大きさの関係が示される。すなわち、画像表示領域410と画像411の位置関係の変化に対応して、インジケータ430、431が表示される位置が変化する。   Further, when the user is operating as shown in FIG. 3, indicators 430 and 431 which are not displayed in FIG. 2 are displayed. The indicator 430 corresponds to the image 411, and the indicator 431 corresponds to the image display area 410. That is, the indicators 430 and 431 indicate the relative position and size relationship between the image 411 enlarged by image processing and the image display area 410. That is, the position where the indicators 430 and 431 are displayed changes corresponding to the change in the positional relationship between the image display area 410 and the image 411.

図4は、タップ位置413、414を互いに近づく方向に移動するピンチイン操作を行った場合の表示例である。図2のタップ位置413、414間の距離と比較して、タップ位置413、414間の距離が減少している。図4では、このユーザの操作に対応して画像処理によって図2の画像411に対して画像処理が行われ、画像411の縮小画像が表示される。なお、タップ位置413、414の中点は図2の場合と同じなので、画像表示領域410と画像411の中心は一致したままである。   FIG. 4 is a display example when a pinch-in operation for moving the tap positions 413 and 414 in a direction approaching each other is performed. Compared to the distance between the tap positions 413 and 414 in FIG. 2, the distance between the tap positions 413 and 414 is reduced. In FIG. 4, image processing is performed on the image 411 in FIG. 2 by image processing in response to the user operation, and a reduced image of the image 411 is displayed. Since the midpoints of the tap positions 413 and 414 are the same as in the case of FIG. 2, the centers of the image display area 410 and the image 411 remain the same.

図4の場合においてもユーザが操作中であるため、インジケータ430、431が表示されている。図3の場合と比較して、画像表示領域410内に画像411が表示されるため、インジケータ430、431が表示される大きさが図3の状態と逆になっている。   Also in the case of FIG. 4, since the user is operating, indicators 430 and 431 are displayed. Compared to the case of FIG. 3, since the image 411 is displayed in the image display area 410, the size of the indicators 430 and 431 displayed is opposite to the state of FIG.

図5は、図4の状態からタップ位置414を右に移動するスワイプ操作を行った場合の例を示している。図5の例では、図4の状態からタップ位置413に対応する指を離した後、ユーザのスワイプ操作によってタップ位置414が右に移動している。このタップ位置の移動に応じて画像411が画像処理によってタップ位置414の移動と同じ分だけ右に移動される。   FIG. 5 shows an example when a swipe operation for moving the tap position 414 to the right from the state of FIG. 4 is performed. In the example of FIG. 5, after releasing the finger corresponding to the tap position 413 from the state of FIG. 4, the tap position 414 is moved to the right by the user's swipe operation. In accordance with the movement of the tap position, the image 411 is moved to the right by the same amount as the movement of the tap position 414 by image processing.

図5に示す例では、表示される画像411の位置と大きさの両方が図3の状態から変化しており、画像411の位置と大きさに対応してインジケータ430もインジケータ431に対して右にはみ出している。   In the example shown in FIG. 5, both the position and the size of the displayed image 411 are changed from the state of FIG. 3, and the indicator 430 corresponds to the position and the size of the image 411 and the indicator 430 is on the right side. It sticks out.

なお、ユーザによる操作は画像411上における操作だけでなく、画像表示領域410内であれば、余白部分上の操作も受け付けられてもよい。   Note that not only the operation on the image 411 but also the operation on the margin part may be accepted within the image display area 410 as the operation by the user.

また、本実施の形態では、画像表示領域410内に表示される範囲内でのみ画像411の移動操作が行えるに制限している。例えば、画像411の1割以上が常に表示されるように制限している。これは画像411が画像表示領域410から完全にはみ出す位置にずらしてしまうと、画像411が表示されなくなり、カメラ装置1をどの位置に制御すべきかユーザが把握できなくなるからである。なお、表示制御部201は、ユーザの操作に応じて一旦画像表示領域411から完全にはみ出す位置に画像を移動させた後、画像表示領域411内に一部の画像が表示されるように表示しなおしてもよい。   Further, in the present embodiment, the moving operation of the image 411 is limited to be performed only within the range displayed in the image display area 410. For example, the image 411 is limited so that 10% or more is always displayed. This is because if the image 411 is shifted to a position where it completely protrudes from the image display area 410, the image 411 is not displayed, and the user cannot grasp where the camera apparatus 1 should be controlled. Note that the display control unit 201 temporarily moves the image to a position that completely protrudes from the image display area 411 in accordance with a user operation, and then displays the image so that a part of the image is displayed in the image display area 411. It may be corrected.

図6は、表示画像に対してユーザの操作を検出したときのクライアント端末装置2の表示制御部203が実行する処理を示すフローチャートである。   FIG. 6 is a flowchart illustrating processing executed by the display control unit 203 of the client terminal device 2 when a user operation is detected on the display image.

操作入力部207においてユーザの入力が検出されると、ステップS101において、拡大あるいは縮小されるべき画像411の大きさと画像表示領域410の大きさとの比に基づいて、画像411の表示倍率を算出する。ここで、拡大あるいは縮小処理された画像に相当する画像がカメラ装置1のズーム倍率を制御することによっても撮影できない場合、ステップS102に進む。   When a user input is detected by the operation input unit 207, the display magnification of the image 411 is calculated in step S101 based on the ratio between the size of the image 411 to be enlarged or reduced and the size of the image display area 410. . If the image corresponding to the image that has been enlarged or reduced cannot be captured even by controlling the zoom magnification of the camera device 1, the process proceeds to step S102.

S102において、表示制御部203は、カメラ装置1のズーム倍率に基づいて、画像411の拡大あるいは縮小処理を制限すなわち表示倍率を制限する。この制限により、画像411の表示倍率によって得られる拡大あるいは縮小画像に対応する画像がカメラ装置1のズーム制御によっても得られることになる。たとえば、現在のカメラ装置1のズーム倍率が2倍で、ユーザの操作によって現在表示されている画像が2倍に拡大処理されたとする。この場合、カメラ装置1は、2X2=4倍にズーム倍率を制御する必要があるが、カメラ装置1のズーム倍率の最大値が3倍の場合は、実際の表示倍率は1.5倍に変更される。このとき、カメラ装置1は2X1.5=3倍にズーム倍率が制御される。また、その他の例として、現在のカメラ装置1のズーム倍率が3倍で、ユーザの操作によって現在表示されている画像が1/4に縮小処理されたものとする。この場合、3X1/4=0.75となり、広角側のズーム制御範囲を超えてしまうため、実際の画像の表示倍率は1/3に縮小処理が制限される。このときカメラ装置1は1倍にズーム倍率が制御されることになる。なお、カメラ装置1のズーム倍率に関する情報は予めカメラ装置1から取得されているものとする。   In S <b> 102, the display control unit 203 restricts the enlargement or reduction processing of the image 411 based on the zoom magnification of the camera device 1, that is, restricts the display magnification. Due to this limitation, an image corresponding to the enlarged or reduced image obtained by the display magnification of the image 411 can also be obtained by the zoom control of the camera device 1. For example, it is assumed that the current camera apparatus 1 has a zoom magnification of 2 and an image currently displayed by the user's operation has been doubled. In this case, the camera device 1 needs to control the zoom magnification to 2 × 2 = 4 times, but when the maximum zoom magnification of the camera device 1 is 3, the actual display magnification is changed to 1.5 times. Is done. At this time, the zoom magnification of the camera device 1 is controlled to 2 × 1.5 = 3 times. As another example, it is assumed that the zoom magnification of the current camera device 1 is three times, and the currently displayed image is reduced to ¼ by a user operation. In this case, 3 × 1/4 = 0.75, which exceeds the zoom control range on the wide-angle side, so that the actual image display magnification is limited to 1/3. At this time, the zoom magnification of the camera device 1 is controlled to 1 time. It is assumed that information regarding the zoom magnification of the camera device 1 has been acquired from the camera device 1 in advance.

拡大あるいは縮小された画像411の表示倍率に対応してカメラ装置1のズーム倍率が制御可能な場合、すなわち、カメラ装置1のズーム倍率の制御によって拡大あるいは縮小された画像411に対応する画像が得られる場合、ステップS103に進む。   When the zoom magnification of the camera device 1 can be controlled in correspondence with the display magnification of the enlarged or reduced image 411, that is, an image corresponding to the image 411 enlarged or reduced by controlling the zoom magnification of the camera device 1 is obtained. If yes, go to step S103.

S103において、ユーザの操作の検出に対応する画像411の移動処理または縮小処理によって画像411がディスプレイ410上に表示される画像部分の表示面積を算出する。   In step S <b> 103, the display area of the image portion on which the image 411 is displayed on the display 410 is calculated by the movement process or the reduction process of the image 411 corresponding to the detection of the user operation.

画像411全体の面積に対して画像411の表示面積が所定の割合(たとえば10%)を下回る場合、ステップS104に進み、画像411の表示倍率を維持したまま、表示制御部203によって画像411の表示位置が所定の割合以上となる表示位置に変更される。なお、ステップS104では、カメラ装置1のパンチルトの駆動限界に関する情報をカメラ装置1から取得しておき、この情報に基づいて画像の表示位置を制限してもよい。   When the display area of the image 411 is less than a predetermined ratio (for example, 10%) with respect to the entire area of the image 411, the process proceeds to step S104, and the display control unit 203 displays the image 411 while maintaining the display magnification of the image 411. The display position is changed to a display position that is equal to or greater than a predetermined ratio. In step S104, information regarding the pan / tilt drive limit of the camera apparatus 1 may be acquired from the camera apparatus 1, and the display position of the image may be limited based on this information.

図7は、ユーザによる画像の縮小・拡大あるいは移動処理に対応するカメラの制御コマンドを生成するクライアント端末装置2のコマンド生成部・解釈部205が実行する処理を示すフローチャートである。   FIG. 7 is a flowchart illustrating processing executed by the command generation unit / interpretation unit 205 of the client terminal device 2 that generates a camera control command corresponding to image reduction / enlargement or movement processing by the user.

ステップS201において、ディスプレイ410に対してロングタップなどのユーザによる操作が操作入力部207により検出されると、表示制御部203により画像411の画像処理による拡大・縮小あるいは移動処理が実行される。それとともに、カメラ位置算出部208が、画像411の現在の表示位置と表示倍率に基づいて、パン、チルト、ズームの各値で表されるカメラ装置1の位置を算出する。次に、S202に進み、操作コマンド生成・解釈部205が算出されたカメラ位置に基づいてカメラ制御コマンドを生成し、通信部206を介してカメラ装置1に送信する。なお、カメラ制御コマンドによって制御された後、カメラ装置1から撮影画像を受信した場合、画像処理によって拡大・縮小あるいは移動処理された画像の表示から受信された撮影画像の表示に切り替える。   In step S201, when an operation by the user such as a long tap on the display 410 is detected by the operation input unit 207, the display control unit 203 executes enlargement / reduction or movement processing of the image 411 by image processing. At the same time, the camera position calculation unit 208 calculates the position of the camera device 1 represented by pan, tilt, and zoom values based on the current display position and display magnification of the image 411. In step S202, the operation command generation / interpretation unit 205 generates a camera control command based on the calculated camera position, and transmits the camera control command to the camera device 1 via the communication unit 206. When a captured image is received from the camera device 1 after being controlled by the camera control command, the display is switched from the display of the image that has been enlarged / reduced or moved by the image processing to the display of the received captured image.

図8および図9は、ステップS202に基づいてカメラ装置1が制御されたときのカメラ位置変化を示す一例である。   FIG. 8 and FIG. 9 are examples showing the camera position change when the camera apparatus 1 is controlled based on step S202.

図8および図9において、半球はカメラ装置1の視点を中心とする半球を示しており、半球の底面の周方向505がパン方向、半球の底面と直交する半円の周方向504がチルト方向に相当する。また、領域502および領域503はカメラ装置1の撮影画角を示している。図8の領域502は、S202の制御コマンドによる制御前のカメラ装置1の撮影画角を示しており、領域503は、カメラ装置1の撮影方向およびズーム倍率が制御された後に撮影された画像に対応する領域を示している。ここで、図8の状態でステップS202の制御コマンドによる制御が実行されると、図9に示すように、領域503がカメラ装置1の撮影画角となるようにカメラ装置1のパンチルトズームの制御が実行される。なお、図8、9の領域502と領域503の相対的な位置と大きさの関係は同じである。   8 and 9, the hemisphere indicates a hemisphere centered on the viewpoint of the camera apparatus 1, the circumferential direction 505 of the bottom surface of the hemisphere is the pan direction, and the circumferential direction 504 of the semicircle orthogonal to the bottom surface of the hemisphere is the tilt direction. It corresponds to. An area 502 and an area 503 indicate the shooting angle of view of the camera device 1. An area 502 in FIG. 8 shows a shooting angle of view of the camera apparatus 1 before the control by the control command of S202, and an area 503 shows an image shot after the shooting direction and zoom magnification of the camera apparatus 1 are controlled. The corresponding area is shown. Here, when the control by the control command in step S202 is executed in the state of FIG. 8, the pan / tilt / zoom control of the camera apparatus 1 is performed so that the area 503 becomes the shooting field angle of the camera apparatus 1 as shown in FIG. Is executed. The relationship between the relative positions and sizes of the areas 502 and 503 in FIGS. 8 and 9 is the same.

以下に示す第2の実施形態では、ユーザの操作に対応して画像の拡大縮小あるいは移動するための画像処理後に表示される画像の以外の余白部分に予めカメラ装置1から取得しておいたパノラマ画像の一部を切り出して表示する実施形態である。カメラ制御後のカメラ装置1の可動範囲内に収まる範囲内で、画像表示領域に対する画像の移動および拡大縮小処理する点は上記の実施形態と同様である。   In the second embodiment described below, a panorama acquired in advance from the camera device 1 in a blank area other than an image displayed after image processing for enlarging / reducing or moving an image in response to a user operation. This is an embodiment in which a part of an image is cut out and displayed. The point that the image is moved and enlarged / reduced in the image display area within the movable range of the camera device 1 after the camera control is the same as in the above embodiment.

図10は、第2の実施形態のシステム構成図である。図1のシステム構成とほぼ同様であるが、部分パノラマ画像生成部209が追加されている。部分パノラマ画像生成部209は、あらかじめレンズ101を広角端に設定した状態で可動雲台104を制御して撮影された、カメラ装置1の可動範囲全体に相当するパノラマ画像の一部を切り出すとともに、歪みを補正して出力する。画像の切り出しの位置と大きさは、画像表示領域410に対して、縮小拡大あるいは移動処理された画像411の位置と大きさに応じて決定される。   FIG. 10 is a system configuration diagram of the second embodiment. Although the system configuration is almost the same as the system configuration of FIG. 1, a partial panorama image generation unit 209 is added. The partial panoramic image generation unit 209 cuts out a part of the panoramic image corresponding to the entire movable range of the camera device 1 that is captured by controlling the movable pan head 104 with the lens 101 set to the wide-angle end in advance. Correct distortion and output. The position and size of the image cutout are determined according to the position and size of the image 411 that has been reduced, enlarged, or moved with respect to the image display area 410.

図11は、第2の実施形態のクライアント端末装置2の表示制御部203が実行する処理を表すフローチャートである。S101からS104は、図6で示した第1の実施形態のフローチャートと同様であり、図11ではS105からS106の処理が追加されている。なお、図11の処理を第1の実施形態に適用してもよい。   FIG. 11 is a flowchart illustrating processing executed by the display control unit 203 of the client terminal device 2 according to the second embodiment. Steps S101 to S104 are the same as those in the flowchart of the first embodiment shown in FIG. 6. In FIG. 11, steps S105 to S106 are added. Note that the processing of FIG. 11 may be applied to the first embodiment.

S105において、カメラ位置算出部S208は、画像表示領域410に対する、画像処理された現在の画像411の位置と大きさの割合(表示倍率)に基づいて、図8および図9で示すように制御されるべきカメラ装置1の位置を算出する。   In S105, the camera position calculation unit S208 is controlled as shown in FIGS. 8 and 9 based on the ratio (display magnification) of the position and size of the current image 411 subjected to image processing with respect to the image display area 410. The position of the camera device 1 to be calculated is calculated.

そして、S105で算出されたカメラ位置がパン、チルトの可動範囲内かどうかを判定し、範囲外の場合、カメラ位置算出部S208が、S106で範囲内となるカメラ位置および画像411の表示位置を算出する。また、S107で、算出された位置に基づいて、表示制御部203は画像411の表示位置を変更する。   Then, it is determined whether or not the camera position calculated in S105 is within the pan / tilt movable range. If the camera position is out of the range, the camera position calculation unit S208 determines the camera position and the display position of the image 411 that are within the range in S106. calculate. In S107, the display control unit 203 changes the display position of the image 411 based on the calculated position.

図12は、カメラ装置1の撮影位置と可動範囲、およびパノラマ画像の位置関係を表す図である。   FIG. 12 is a diagram illustrating the positional relationship between the shooting position and the movable range of the camera device 1 and the panoramic image.

パノラマ画像は半球の球面にシーン全体を射影した画像に相当し、カメラ装置1の可動範囲はその一部である506に相当する。部分パノラマ画像生成部209が生成する部分パノラマ画像は、領域503のうち、領域502からはみ出した部分に相当する。また、S105で算出されるカメラ位置は、領域503の中心に対応するカメラ位置であり、可動範囲506の範囲外になる場合に、S106およびS107が実行されることになる。   The panoramic image corresponds to an image obtained by projecting the entire scene onto a spherical surface of a hemisphere, and the movable range of the camera device 1 corresponds to 506, which is a part of the movable range. The partial panorama image generated by the partial panorama image generation unit 209 corresponds to a portion of the region 503 that protrudes from the region 502. In addition, the camera position calculated in S105 is a camera position corresponding to the center of the region 503, and when it is outside the movable range 506, S106 and S107 are executed.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

第2の実施形態では、カメラ装置1の可動雲台104は、メカ機構の制限を有し、メカ機構に対応する範囲内でパン、チルトが行われるものとする。また、パン、チルトの可動範囲をプライバシー保護などの目的で、メカ機能の駆動可能範囲内でさらに制限しておくことも可能である。   In the second embodiment, the movable pan head 104 of the camera apparatus 1 has a mechanical mechanism limitation, and panning and tilting are performed within a range corresponding to the mechanical mechanism. Further, the movable range of pan and tilt can be further limited within the drive range of the mechanical function for the purpose of privacy protection.

図13は、上記第1、第2の実施形態のクライアント端末装置のハードウエア構成の一例を示す図である。クライアント端末装置2は、CPU215、1次記憶装置225、2次記憶装置235、タッチパネル255、ディスプレイ265、ネットワークI/F290を有する。   FIG. 13 is a diagram illustrating an example of a hardware configuration of the client terminal device according to the first and second embodiments. The client terminal device 2 includes a CPU 215, a primary storage device 225, a secondary storage device 235, a touch panel 255, a display 265, and a network I / F 290.

タッチパネル255は、操作入力部207に対応し、ディスプレイ265の前面に配置されており、ユーザからの指示の入力を検出する。   The touch panel 255 corresponds to the operation input unit 207 and is disposed on the front surface of the display 265, and detects an instruction input from the user.

ディスプレイ265は、表示部201が有するディスプレイに対応し、カメラ装置1からの撮像画像を表示する。ネットワークI/F290はネットワーク10と接続するためのI/Fであり、通信部206に対応する。ネットワークカメラ100との間でやり取りされるデータは、ネットワークI/F290を介して送受信される。2次記憶装置235は、不揮発性の記憶媒体によって構成され、図6,7,11に示すクライアント端末装置2の処理を実行するためのプログラムを格納する。一時記憶装置225は2次記憶装置から読みだされたプログラムを展開したりするRAMなどの一時記憶メモリを有する。   The display 265 corresponds to the display included in the display unit 201 and displays a captured image from the camera device 1. A network I / F 290 is an I / F for connecting to the network 10 and corresponds to the communication unit 206. Data exchanged with the network camera 100 is transmitted / received via the network I / F 290. The secondary storage device 235 is configured by a non-volatile storage medium, and stores a program for executing the processing of the client terminal device 2 shown in FIGS. The temporary storage device 225 has a temporary storage memory such as a RAM for expanding a program read from the secondary storage device.

なお、CPU215は、図1、図10に示される表示制御部203、画像伸張部204、操作コマンド生成・解釈部205、カメラ位置算出部208に相当する。なお、圧縮伸張部204は、CPU215とは別の回路によってハードウエアとして実現されてもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
The CPU 215 corresponds to the display control unit 203, the image expansion unit 204, the operation command generation / interpretation unit 205, and the camera position calculation unit 208 shown in FIGS. The compression / decompression unit 204 may be realized as hardware by a circuit different from the CPU 215.
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201 表示部
203 表示制御部
205 操作コマンド生成・解釈部
208 カメラ位置算出部
201 Display Unit 203 Display Control Unit 205 Operation Command Generation / Interpretation Unit 208 Camera Position Calculation Unit

Claims (7)

ネットワークを介してカメラ装置の制御を実行する情報処理装置であって、
前記カメラ装置から取得した画像を表示する表示手段と、
ユーザの操作に応じて、前記表示手段によって表示されるべき画像の移動または大きさの変更の処理を制御する表示制御手段と、
前記表示制御手段によって処理された前記画像の移動または大きさの変更の処理に対応して、前記カメラ装置の撮影位置を制御するための制御コマンドを生成する生成手段とを有することを特徴とする情報処理装置。
An information processing device that controls a camera device via a network,
Display means for displaying an image acquired from the camera device;
Display control means for controlling processing of moving or changing the size of an image to be displayed by the display means in response to a user operation;
And generating means for generating a control command for controlling the photographing position of the camera device in response to the processing of moving or changing the size of the image processed by the display control means. Information processing device.
前記表示制御手段は、前記画像の所定の割合が表示部に表示される範囲内で、前記画像の移動または大きさの変更が可能であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display control unit is capable of moving or changing a size of the image within a range in which a predetermined ratio of the image is displayed on a display unit. . 前記表示制御手段は、前記カメラ装置に対する制御が可能な範囲で前記画像の移動および大きさの変更が可能であることを特徴とする請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display control unit is capable of moving and changing a size of the image within a controllable range of the camera device. 前記表示制御手段は、前記表示手段によって表示されない画像の部分に、あらかじめカメラ装置の可動範囲の全体を撮影して生成したパノラマ画像の一部を切り出した部分パノラマ画像を表示することを特徴とする請求項1ないし3のうちいずれか1項に記載の情報処理装置。   The display control means displays a partial panorama image obtained by cutting out a part of a panoramic image generated by photographing the entire movable range of the camera device in advance on the part of the image not displayed by the display means. The information processing apparatus according to any one of claims 1 to 3. ネットワークを介してカメラ装置の制御を実行する情報処理装置の処理方法であって、
ユーザの操作に応じて、カメラ装置から取得した画像を表示する表示工程において表示されるべき画像の移動または大きさの変更の処理を制御する表示制御工程と、
前記表示制御工程において処理された前記画像の移動または大きさの変更の処理に対応して、前記カメラ装置の撮影位置を制御するための制御コマンドを生成する生成工程とを有することを特徴とする情報処理装置の処理方法。
A processing method of an information processing apparatus for executing control of a camera device via a network,
A display control step for controlling a process of moving or changing a size of an image to be displayed in a display step of displaying an image acquired from the camera device in accordance with a user operation;
A generation step of generating a control command for controlling the photographing position of the camera device in response to the movement or size change processing of the image processed in the display control step. Processing method of information processing apparatus.
請求項5の処理方法を情報処理装置に実行させるためのプログラム。   A program for causing an information processing apparatus to execute the processing method of claim 5. 請求項6のプログラムを記憶した不揮発性の記憶媒体。   A non-volatile storage medium storing the program of claim 6.
JP2014112623A 2014-05-30 2014-05-30 Information processing device for controlling camera, method therefor, program and storage medium Pending JP2015228549A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014112623A JP2015228549A (en) 2014-05-30 2014-05-30 Information processing device for controlling camera, method therefor, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014112623A JP2015228549A (en) 2014-05-30 2014-05-30 Information processing device for controlling camera, method therefor, program and storage medium

Publications (1)

Publication Number Publication Date
JP2015228549A true JP2015228549A (en) 2015-12-17

Family

ID=54885802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014112623A Pending JP2015228549A (en) 2014-05-30 2014-05-30 Information processing device for controlling camera, method therefor, program and storage medium

Country Status (1)

Country Link
JP (1) JP2015228549A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087902A1 (en) * 2017-11-01 2019-05-09 富士フイルム株式会社 Image capture device, and activation method and activation program therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087902A1 (en) * 2017-11-01 2019-05-09 富士フイルム株式会社 Image capture device, and activation method and activation program therefor

Similar Documents

Publication Publication Date Title
JP6071866B2 (en) Display control device, display device, imaging system, display control method, and program
JP6065195B2 (en) Display image forming apparatus and display image forming method
JP6312046B2 (en) Image processing system, image processing method, and program
CN104954672B (en) Manual focusing method of mobile terminal and mobile terminal
JP6618644B2 (en) Control device, control method, and program
JP2018107583A (en) Information processing device, information processing method and program
JP6525760B2 (en) Imaging device, control method thereof and program
JP2016096481A (en) Control apparatus, photographing system, control method, and program
JP2018201065A (en) Display control device, display control method, and program
JP5955130B2 (en) Camera control apparatus and camera control method
JP6352217B2 (en) Communication system and control method thereof
JP2010011307A (en) Camera information display unit and camera information display method
JP2016100883A (en) Focus assist device and program therefor
JP6543108B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP2009089172A (en) Image display device
JP2015228549A (en) Information processing device for controlling camera, method therefor, program and storage medium
JP2014192745A (en) Imaging apparatus, information processing apparatus, control method and program thereof
JP6826481B2 (en) Video display device, control method and program of video display device
JP2016096482A (en) Image processing apparatus, image processing method, and program
JP4777486B2 (en) Camera control system and method, and storage medium storing operation processing program thereof
JP5241880B2 (en) Camera control system and method, and storage medium storing operation processing program thereof
JP6702675B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6724395B2 (en) Image display control device, image display control method, and image display control program
JP2015141471A (en) Information processing device and control method of information processing device
CN116980759A (en) Shooting method, terminal, electronic device and readable storage medium