JP2019062575A - 制御装置及び制御方法、プログラム - Google Patents

制御装置及び制御方法、プログラム Download PDF

Info

Publication number
JP2019062575A
JP2019062575A JP2019002137A JP2019002137A JP2019062575A JP 2019062575 A JP2019062575 A JP 2019062575A JP 2019002137 A JP2019002137 A JP 2019002137A JP 2019002137 A JP2019002137 A JP 2019002137A JP 2019062575 A JP2019062575 A JP 2019062575A
Authority
JP
Japan
Prior art keywords
control
coordinate
display
angle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019002137A
Other languages
English (en)
Other versions
JP6618644B2 (ja
Inventor
吉孝 長尾
Yoshitaka Nagao
吉孝 長尾
中西 徹
Toru Nakanishi
徹 中西
匠 木村
Takumi Kimura
匠 木村
大西 元大
Motohiro Onishi
元大 大西
崇博 岩崎
Takahiro Iwasaki
崇博 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2019062575A publication Critical patent/JP2019062575A/ja
Application granted granted Critical
Publication of JP6618644B2 publication Critical patent/JP6618644B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 撮影条件を容易に設定し、かつ撮影画像の状態を容易に把握することができる。【解決手段】 撮像装置によって撮像された撮像画像を表示部に表示させる表示制御部と、表示制御部において表示される撮像画像に対する操作によって指定される第1の位置に対する第2の位置の相対的な位置に基づいて、操作が、望遠処理を実行させる操作であるか、又は、広角処理を実行させる操作であるかを判定する判定処理を行う判定部とを有する。そして、表示制御部は、操作が行われている場合に、判定処理の結果に応じた情報を表示部に表示させる。【選択図】 図3

Description

本発明は、撮影装置の撮影を制御する制御技術に関するものである。
従来、監視カメラ等の撮影装置で、撮影対象物を遠隔操作で指示し撮影する場合には、撮影装置が撮影する向きや、望遠/広角等の撮影条件を、ジョイスティック等の指示部により指示することができる。しかしながら、撮影画像を表示するモニタを見ながら、監視カメラの撮影方向と画角を同時にジョイスティックで指示操作することは、熟練が要求されている作業となっている。
また、デジタルカメラや携帯端末において、それに搭載されるモニタに表示された画像上で画像のズーム等の指示を行うことが提案されている(特許文献1及び2)。
また、クライアント装置である携帯端末等の受信装置へ撮影装置の撮影画像を送信する撮影装置において、携帯端末等の外部機器から撮像装置の保有する機能問合せ、設定変更や、画角変更や、画像の配信の開始を支持するコマンド群が実装されてきた。昨今、そのようなコマンド群の例として、ONVIF(Open Network Video Interface Forum)により策定された規格によって定義されるものが知られている。
特開2004−157869号公報 特開2004−32524号公報
特許文献1では、指示したズーム領域を画面上に表示し、ズーム領域を画面全体に拡大表示することが提案されている。また、特許文献2では、予め撮影画角を設定しておき、広角側で撮影画像が変化した場合に、設定した撮影画角を表す枠を表示し、周囲の状況を見ながら画角内に被写体が入ってくることを確認できるユーザインタフェースが提案されている。
しかしながら、撮影画像から注目する部分を指示し、その指示の仕方に応じて、カメラの画角を制御することは開示されていない。また、カメラを広角側にズーム制御したときに、現在の撮影画角の画像と広角側の撮影画角との位置関係を容易に指定できない。また、操作者が、容易に画像上の指示で広角側へ制御を行い、その結果、どのような画像になるかを操作者が事前に把握することが困難である。
本発明は上記の課題を解決するためになされたものであり、撮影条件を容易に設定し、かつ撮影画像の状態を容易に把握することができる情報処理技術を提供することを目的とする。
上記の目的を達成するための本発明による制御装置は以下の構成を備える。即ち、
撮像装置によって撮像された撮像画像を表示手段に表示させる表示制御手段と、
前記表示制御手段において表示される前記撮像画像に対する操作によって指定される第1の位置に対する第2の位置の相対的な位置に基づいて、前記操作が、望遠処理を実行させる操作であるか、又は、広角処理を実行させる操作であるかを判定する判定処理を行う判定手段と、
を有し、
前記表示制御手段は、前記操作が行われている場合に、前記判定処理の結果に応じた情報を前記表示手段に表示させることを特徴とする。
本発明によれば、撮影条件を容易に設定し、かつ撮影画像の状態を容易に把握することができる。
カメラ制御システムの機能構成図である。 カメラ制御システムのハードウェア構成図である。 ユーザインタフェースを示す図である。 フローチャートである。 ビューワ端末側のユーザインタフェースを示す図である。 フローチャートである。 ビューワ端末側のユーザインタフェースを示す図である。 フローチャートである。 ユーザインタフェースを示す図である。 ネットワークカメラとビューワ端末との間のコマンドシーケンス図である。 ネットワークカメラの撮影画面表示座標を示す図である。 ネットワークカメラのBoxZoomコマンド受信処理のフローチャート図である。 ネットワークカメラの撮影画面表示座標を示す図である。 ネットワークカメラが保持するパラメータ構成を示す図である。 ビューワ端末側のユーザインタフェースを示す図である。 ビューワ端末側のフローチャートである。 ネットワークカメラの広角制御の一例を説明するための図である。
以下、本発明の実施の形態について図面を用いて詳細に説明する。
<実施形態1>
図1はカメラ制御システムの機能構成図である。
図1において、カメラ制御システムは、ビューワ端末101及びネットワークカメラ103がネットワーク102を介して相互に接続されて構成されている。ビューワ端末101は、ネットワークカメラ103が撮影する画像を表示し、ネットワークカメラ103で撮影する撮影条件を指示するためのユーザインタフェースを提供する制御装置としての情報処理装置である。ネットワーク102は、LANやインターネット等のIPベースの通信が可能な通信回線である。このネットワーク102は、有線/無線の形態を問わず、用途や目的に応じて、必要な形態の通信回線が実装される。ネットワークカメラ103は、指定された撮影条件に従ってライブ画像を撮影し、そのライブ画像をネットワーク102経由で配信することができる。
ネットワークカメラ103は、撮影部104、制御部105、及び通信部106を有している。
撮影部104は、ネットワークカメラ103と一体的に構成され、ライブ画像を取得するための撮影デバイスである。撮影部104では、例えば、1秒間に30フレーム分の画像を取得して、30fpsの動画像を取得することが可能である。本実施形態では、撮影部104は、取得したビデオ画像をJPEG等のネットワーク配信可能なデジタル画像データに変換する(コーディングする)機能も提供する。以降の説明において、「ライブ画像」あるいは「画像データ」は、撮影部104によって生成されたデジタル画像データであるものとして説明する。
制御部105は、ユーザの指示に応じて、ネットワークカメラ103の画角や撮影方向、1秒あたりのフレーム数、取得する画像の種類等の撮影条件を調整する。ユーザの指示は、ネットワーク102を介してビューワ端末101から行なってもよいし、直接、ネットワークカメラ103に接続したコンソール端末によって行うこともできる。また、制御部105による撮影条件の調整は、ネットワークカメラ103に予め記憶された設定値に応じて行うこともできる。
通信部106は、撮影部104が取得した画像データをネットワーク102経由で情報処理装置(例えば、クライアントであるビューワ端末101、録画サーバ等)に送信する。また、通信部106は、情報処理装置で設定された、撮影部104を制御するための設定情報を受信し、制御部105はその設定情報に従ってネットワークカメラ103の動作を制御する。
ビューワ端末101は、通信部110、表示部111、入力部112、表示枠設定部113、表示制御部114、及び撮影制御部115を有している。
通信部110は、ネットワークカメラ103から送信される画像データを受信する。また、通信部110は、ユーザがビューワ端末101を使用して設定した設定情報や制御情報をネットワークカメラ103に送信する。
表示部111は、ネットワークカメラ103から配信された画像データを表示する。入力部112は、画像上でズームインを行うエリアを指定したり、ズームアウトする際に現在の画像の内、中央に配置される部分を指定したりする。また、入力部112は、ネットワークカメラ103の設定を変更するための入力を行う。ネットワークカメラ103を複数台接続する場合には、入力部112は、1画面で複数台分の撮影画像を表示部111に表示するための指示の入力を行ったり、1つのネットワークカメラを選択して、その撮影画像を表示部111に表示するための指示の入力をしたりすることができる。
表示枠設定部113は、入力部112で設定されたエリアから、撮影画像中の注目画像を表示するための表示枠を表示するために必要な設定を行う。この設定には、例えば、表示枠を表示部111上で表示する位置の座標を設定情報として算出することが含まれる。本実施形態では、表示枠のサイズ及び形状は、矩形として設定・表示するものとして説明するが、矩形以外の多角形にも適用可能である。
表示制御部114は、ネットワークカメラ103から送信された画像や設定画面を表示部111に表示する制御を行う。また、表示制御部114は、表示枠設定部113によって設定された表示枠内で表示された画像を、表示部111で表示される画像全体や部分画像と重ね合わせて表示する制御を行うことができる。
撮影制御部115は、入力部112や表示枠設定部113で設定された設定情報に応じて、ネットワークカメラ103の撮影方向や画角を含む撮影条件を算出して、ネットワークカメラ103の撮影を制御する。尚、本実施形態では、入力部112の入力に応じて設定する表示枠の縦横比が必ずしも、表示部111で表示する画像もしくはネットワークカメラ103の撮影部104で生成される画像の縦横比と合致しない。そのため、撮影制御部115は、表示部111で表示する画像または撮影部104で生成される画像の縦横比に合わせて、撮影条件(画角や撮影方向)を算出する。また、撮影制御部115は、ネットワークカメラ103の画像のコーディング方法や毎秒あたりのフレーム数、通信等の各種制御パラメータについても指示することができる。
ネットワーク102には、必要に応じて、録画サーバや、複数のビューワ端末101等の情報処理装置を接続することができる。
図2は、ビューワ端末101及びネットワークカメラ103のハードウェア構成を示す図である。
ビューワ端末101において、CPU201は、ビューワ端末101を統括制御する。CPU201は、図1に示す表示制御部114、表示枠設定部113、撮影制御部115を実行する機能を有する。2次記憶装置202は、CPU201がビューワ端末101を制御するためのプログラムを記憶する。RAM203は、2次記憶装置202から読み出したプログラムを展開し、処理を実行するためのメモリである。また、RAM203は、一時記憶メモリとして各種処理の対象となるデータを一時記憶するための記憶領域としても使用される。
ネットワークインタフェース204は、ネットワーク102を介して通信を行う回路であり、図1の通信部110に相当するものである。ネットワークインタフェース204は、例えば、ネットワークカメラ103からの画像データや設定情報の受信、及びネットワークカメラ103への設定情報の送信のために使用される。表示装置205は、画像データや表示枠を表示するLCD等の表示デバイスであり、図1の表示部111に相当する。入力装置206は、数値入力用のキーボード及び表示装置205の表示領域の特定の表示位置を指示するためのマウスやタッチパネル等のポインティングデバイスであり、図1の入力部112に相当する。特に、タッチパネルは、入力装置が表示装置上に構成されているので、指やペンで指示している部分がそのまま表示装置に表示されるので、操作性や視認性に優れている。
以上のように、ビューワ端末101のハードウェア構成は、一般的なPC(パーソナルコンピュータ)に搭載されるハードウェア構成要素と同様のハードウェア構成要素を有している。そのため、ビューワ端末101で実現される各種機能を、一般的なPC上で動作するソフトウェアとして実装することが可能である。
ネットワークカメラ103において、CPU201は、ネットワークカメラ103を統括制御するためのものであり、図1の制御部105に相当する。ROM211は、CPU201がネットワークカメラ103を制御するためのプログラムを記憶する。ここでは、ROM211に代えて、ビューワ端末101の2次記憶装置202と同等な2次記憶装置を有する構成であっても差し支えない。RAM212は、ROM211から読み出したプログラムを展開し、処理を実行するためのメモリである。また、RAM212は、一時記憶メモリとして各種処理の対象となるデータを一時記憶するための記憶領域としても使用される。
ネットワークインタフェース213は、ネットワーク102を介して通信を行う回路であり、図1の通信部106に相当する。ネットワークインタフェース213は、例えば、ビューワ端末101への画像データや設定情報の送信、及びビューワ端末101からの設定情報の受信のために使用される。撮影装置214は、ライブ画像を動画及び静止画として撮影する画像センサを有する撮影デバイスである。撮影装置214は、画角や撮影方向等の撮影条件を自動調整することもできる。また、撮影装置214は、パン、チルト及びズーム機構を有し、CPU201による制御によって、パン、チルト及びズーム(望遠制御/広角制御)動作を実行する。撮影装置214は、ネットワークカメラ103本体に内蔵されるものでもよい。
次に、図3を用いて、ビューワ端末101のユーザインタフェースを説明する。尚、このユーザインタフェースは、ユーザが各種操作を行うためのグラフィックユーザインタフェースであり、ビューワ端末101の表示制御部114によって生成される。
図3において、表示領域301は、ビューワ端末101の表示装置205の表示領域である。この表示領域301は、表示装置205の物理的なスクリーンを表示領域として使用することも可能であるが、ウィンドウベースのGUIを採用する環境では1つのウィンドウを表示領域301として実装してもよい。カメラ画像表示部302は、ネットワークカメラ103から配信されてくるライブ画像を表示する領域である。
表示枠303は、ユーザの指示に応じて、カメラ画像表示部302に表示される画像を決定する際に用いられる。ここでは、表示枠303は、ユーザにより指定された第1の座標304と第2の座標305とを結ぶ対角線によって規定される矩形である。但し、矩形以外の多角形の形式で設定された表示枠を実現することも可能である。
図3、及び図4のフローチャートを用いて、ビューワ端末101による表示枠303の設定及び、ネットワークカメラ103の制御を説明する。尚、図4の処理は、ビューワ端末101のCPU201がRAM203から読み出したプログラムを実行することで実現される。以下では、表示枠303が入力装置206としてポインティングデバイスであるマウスによって設定される場合を例に挙げて説明する。
まず、カメラ画像表示部302内でのマウスのクリック動作(マウスボタンによる押下)を検知することにより、CPU201は、そのクリック動作による指示位置を示す第1の座標304を取得する(S401)。この後、CPU201は、マウスの移動に応じて変化するマウスの指示位置を示す第2の座標305を取得する(S402)。即ち、第2の座標は、第1の座標が指定された後に指定された座標である。CPU201は、第2の座標305の取得に従って、第1の座標304と第2の座標305とによって規定される表示枠303の表示を開始する(S403)。CPU201は、マウスの移動を監視して、そのマウスの指示位置から取得した第1の座標304と第2の座標305との位置関係を判別する(S404)。
判別の結果、例えば、図3(a)のように、第1の座標304に対して第2の座標305が第1の所定方向(例えば、パン方向に沿った右から左)に移動している場合、CPU201は、マウスの操作が広角制御の指示であると判別する。具体的には、カメラ画像表示部302の左上を原点とした場合、横軸である第2の座標305のx座標が第1の座標304のx座標より小さい場合、マウスの操作がカメラの広角の制御の指示であると判別される。この場合、CPU201は、第1の座標304と第2の座標305で規定される表示枠303を表示するとともに、その表示枠303のサイズに応じて、カメラ画像表示部302で表示している画像のサイズを変更(変倍(拡大/縮小))して表示枠303内に表示する(S405A)。
次に、マウスのクリック動作を検知することにより、CPU201は、第2の座標305の指定を検知して、第2の座標305が確定したか否かを判定する(S406)。判定の結果、第2の座標305が確定していない場合(S406でNO)、S402に戻る。一方、第2の座標305が確定した場合(S406でYES)、CPU201は、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出して、その算出した撮影条件に従う制御をネットワークカメラ103に対して指示する(S407)。この制御では、CPU201は、例えば、図3(b)のように、ネットワークカメラ103の撮影画像が、表示枠303に現在表示されている状態の画像となるように、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出する。つまり、CPU201は、表示枠303の設定が確定した時点(第2の座標305が確定した時点)での表示枠303で表示している画像と同一の表示状態(同一位置及び同一サイズ)がカメラ画像表示部302で表示する画像において再現されるように、ネットワークカメラ103の撮影画角(ズーム倍率及び撮影方向)を算出する。ビューワ端末101は、ネットワークカメラ103に対して指示を行うことにより、算出されたズーム倍率及び撮影方向に制御する。
その後、CPU201は、表示枠303を消去して、指示に応じてネットワークカメラ103から受信する撮影画像をカメラ画像表示部302に表示する(S408)。尚、広角制御時の表示枠303は、表示対象の画像をカメラ画像表示部302上の画像に重畳して表示する構成としてよいが、視認性を上げるために、枠図形のみを明示してもよい。
一方、S404の判別の結果、例えば、図3(c)のように、第1の座標304に対して第2の座標305が第2の所定方向(例えば、右または下)に移動している場合、CPU201は、マウスの操作が望遠制御の指示であると判別する。具体的には、第2の座標305のx座標が第1の座標304のx座標より大きい場合、マウスの操作がカメラの望遠の制御の指示であると判別される。この場合、CPU201は、カメラ画像表示部302で表示している画像に重畳して、第1の座標304と第2の座標305で規定される表示枠303のみを表示する(S405B)。換言すれば、CPU201は、表示枠303内に、カメラ画像表示部302の部分画像をそのまま表示する。
次に、マウスのクリック動作を検知することにより、CPU201は、第2の座標305の指定を検知して、その位置を第2の座標305として確定する(S406でYES)。CPU201は、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出して、その算出した撮影条件に従う制御をネットワークカメラ103に対して指示する(S407)。この制御では、CPU201は、例えば、図3(d)のように、ネットワークカメラ103の撮影画像が、表示枠303に表示される状態の画像となるように、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出する。ビューワ端末101は、ネットワークカメラ103に対して指示を行うことにより、算出されたズーム倍率及び撮影方向に制御する。その後、CPU201は、表示枠303を消去して、ネットワークカメラ103から受信する撮影画像をカメラ画像表示部302に表示する(S408)。
本実施形態では、ポインティングデバイスとして、マウスを用いている場合を例に挙げて説明しているが、これに限定されない。第1の座標304と第1の座標を指示した後に第2の座標305を順番に指示し、表示枠303をその座標に応じて設定できるデバイスであれば、どのようなものでも良い。
また、第1の座標304と第2の座標305の指定や移動は、マウスそのものの移動とマウスボタンの押下状態で指示することができるが、この指示方法も、これに限定されない。所定の動作、例えば、このマウスボタンの押下状態を維持しながらマウスを移動する動作(ドラッグ動作)によって、第1の座標304と第2の座標305の指定や移動を指示することもできる。
また、望遠制御及び広角制御の判別は、本実施形態では、マウス操作によって、第2の座標305の位置が第1の座標304の位置に対して、パン方向(右から左または左から右)のいずれかへ移動したことを検知することで行っているが、これに限定されない。例えば、チルト方向(上から下、下から上)に第1の座標から第2の座標が移動したことを判定してもよい。具体的には、カメラ画像表示部302の左上を原点とした場合、縦軸である第2の座標305のy座標が第1の座標304のy座標より大きいと判別された場合、マウスの操作がカメラの広角の制御の指示であると判別される。また、第2の座標305のy座標が第1の座標304のy座標より小さいと判別された場合、マウスの操作がカメラの望遠の制御の指示であると判別される。
また、このカメラの望遠制御及び広角制御の判別に使用する判別条件として、パン方向及びチルト方向の両方向に関する第1の座標から第2の座標への移動を条件としてもよい。例えば、左上から右下の移動が判別された場合、カメラを広角に制御し、右上から左下の移動が判別された場合カメラを望遠に制御してもよい
以上説明したように、本実施形態によれば、表示枠を規定するための第1の座標と第2の座標の位置関係により、ネットワークカメラの画角制御が広角制御であるか望遠制御であるかを判別することができる。また、広角制御の際には、現在表示している撮影画像を、広角制御によって表示される撮影画像の状態を表示枠に表示することによって、どのような画像が取得できるかを容易にユーザに把握させることができる。
また、表示枠に対する操作に従って、ネットワークカメラの撮影方向や画角を含む撮影条件を算出し、その撮影条件に従う制御をネットワークカメラに対して指示することができる。そのため、直接、ネットワークカメラの撮影方向や画角を設定するようなジョイスティックやスライダー等の操作部に比べて、格段に操作性を向上させることができる。
このように、表示部の操作だけで、望遠と広角の両方のカメラのPTZ(パンチルトズーム)制御を簡単に行え、操作後の画像表示状態を直感的に把握しやすいユーザインタフェースを提供することができる。
<実施形態2>
実施形態2では、ビューワ端末101の表示装置205がタッチパネルである場合の動作について説明する。この場合、ユーザは、実施形態1におけるマウス操作に代えて、ユーザの指あるいはスタイラス等の指示具による操作によって、ネットワークカメラ103を制御することが可能となる。
図5は、ビューワ端末101のユーザインタフェースであり、表示領域501、カメラ画像表示部502、及び表示枠503はそれぞれ、実施形態1の図3のユーザインタフェースにおける表示領域301、カメラ画像表示部302、及び表示枠303に対応する。
図5、及び図6のフローチャートを用いて、ビューワ端末101による表示枠503の設定及び、ネットワークカメラ103の制御を説明する。尚、図5の処理は、ビューワ端末101のCPU201がRAM203から読み出したプログラムを実行することで実現される。以下では、表示枠503がユーザによる指によって操作(スワイプ動作)する場合を例に挙げて説明する。ここで、スワイプ動作とは、指や指示具を触れたまま特定の方向に滑らせることである。
まず、カメラ画像表示部502内での指のスワイプ動作を検知することにより、CPU201は、スワイプ動作の開始点である第1の座標504を取得する(S601)。この後、CPU201は、スワイプ動作に応じて変化する指の指示位置を示す第2の座標を取得する(S602)。CPU201は、第2の座標505の取得に従って、第1の座標504と第2の座標505とによって規定される表示枠503の表示を開始する(S603)。CPU201は、指の移動を監視して、その指の指示位置から取得した第1の座標504と第2の座標505との位置関係を判別する(S604)。
判別の結果、例えば、図5(a)のように、第1の座標504に対して第2の座標505が第1の所定方向(例えば、右下から左下)に向けて移動している場合、CPU201は、スワイプ動作が広角制御の指示であると判別する。この場合、CPU201は、第1の座標504と第2の座標505で規定される表示枠503の位置に基づいて算出されるネットワークカメラ103の制御後のネットワークカメラ103の撮影方向や画角が、ネットワークカメラ103の可動範囲/可視範囲内であるか否かを確認する(S605A)。ネットワークカメラ103の可動範囲/可視範囲内である場合(S605AでYES)、CPU201は、第1の座標504と第2の座標505で規定される表示枠503を表示する。それとともに、CPU201は、その表示枠503のサイズに応じて、カメラ画像表示部502で表示している画像のサイズを変更(変倍(拡大/縮小))して表示枠503内に表示する(S606A)。
一方、ネットワークカメラ103の可動範囲/可視範囲外である場合(S605AでNO)、CPU201は、表示枠503の設定を禁止して、その旨を示す警告表示(例えば、ポップアップウインドウ)を行う(S606B)。
その後、CPU201は、指がタッチパネルから離れることでスワイプ動作の終了を検知すると、スワイプ動作の終了直前の指が指示する第2の座標505を終点として確定したことを判定する(S607でYES)。第2の座標505が確定していない場合(S607でNO)、S601に戻る。一方、第2の座標505が確定した場合(S607でYES)、CPU201は、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出して、その算出した撮影条件に従う制御をネットワークカメラ103に対して指示する(S608)。この制御では、CPU201は、例えば、図5(b)のように、ネットワークカメラ103の撮影画像が、最後に設定された表示枠503に表示される状態の画像となるように、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出する。その後、CPU201は、表示枠503を消去して、ネットワークカメラ103から受信する撮影画像をカメラ画像表示部502に表示する(S609)。
一方、S604の判別の結果、図5(c)のように、第1の座標504に対して第2の座標505が第2の所定方向(左下から右下)に移動している場合、CPU201は、スワイプ動作が望遠制御の指示であると判別する。この場合、CPU201は、カメラ画像表示部502で表示している画像に重畳して、第1の座標504と第2の座標505で規定される表示枠503を表示する(S606C)。換言すれば、CPU201は、表示枠503内に、カメラ画像表示部502の部分画像をそのまま表示する。
次に、CPU201は、スワイプ動作の終了直前の指が指示する位置を第2の座標505として確定する(S607でYES)と、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出する。そして、CPU201は、その算出した撮影条件に従う制御をネットワークカメラ103に対して指示する(S608)。この制御では、CPU201は、例えば、図5(d)のように、ネットワークカメラ103の撮影画像が、最後に設定された表示枠503に表示される状態の画像となるように、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出する。その後、CPU201は、表示枠503を消去して、指示に応じてネットワークカメラ103から受信する撮影画像をカメラ画像表示部502に表示する(S609)。
本実施形態では、タッチパネル上で指を用いて、座標の指示を行う場合を例に挙げて説明しているが、これに限定されない。第1の座標504と第2の座標505とを指示し、表示枠503をその座標に応じて設定できる指示具であれば、どのようなものでも良い。
また、タッチパネル上での第1の座標504と第2の座標505の指定や移動は、スワイプ動作で指示することできるが、この指示方法も、これに限定されない。所定の動作、例えば、指によるタッチを2回行う(ダブルタップ)ことによって、第1の座標504と第2の座標505の指定や移動を指示することもできる。
また、望遠制御及び広角制御の判別は、上述したスワイプ動作によって行っているが、これに限定されない。上述では、第1の座標に対する第2の座標の移動方向に基づいて望遠制御及び広角制御を判別していたが、単純に第1の座標と第2の座標の位置関係で判別してもよい。例えば、第1の座標と第2の座標とによって表示枠503の左上及び右下を規定する場合、望遠制御と判別し、第1の座標と第2の座標とによって表示枠503の左下及び右上を規定する場合、広角制御と判別してもよい。
以上説明したように、本実施形態によれば、スワイプ動作においても、実施形態1と同様の効果を得ることができる。
また、ネットワークカメラの制御後の撮影方向や画角を表示枠の設定時に算出し、ネットワークカメラの可動範囲内であるかどうかや、予め指定した可視範囲内であるかどうかを確認することで、指定した時点でネットワークカメラの制御の可否を確認できる。
<実施形態3>
実施形態3では、実施形態2において、表示枠設定中にその表示枠外にパノラマ画像を表示する場合の動作について説明する。
このために、ビューワ端末101は、ネットワークカメラ103を制御して、ネットワークカメラ103が撮影方向を変更することによって撮影可能な可動範囲内(可視範囲内)の画像を予め取得する。この取得のタイミングは、ネットワークカメラ103の起動時でもよいし、一定時刻、一定時間間隔で自動的にネットワークカメラ103から取得してもよい。そして、ビューワ端末101は、取得した画像から、ネットワークカメラ103で撮影可能な全撮影範囲画像に対応するパノラマ画像を作成しておき、これを、例えば、2次記憶装置202に記憶する。
図7は、ビューワ端末101のユーザインタフェースであり、表示領域701、カメラ画像表示部702、及び表示枠703はそれぞれ、実施形態1の図3のユーザインタフェースにおける表示領域301、カメラ画像表示部302、及び表示枠303に対応する。ここで、図7(a)は、操作する前のビューワ端末101の表示状態を示している。
図7、及び図8のフローチャートを用いて、ビューワ端末101による表示枠703の設定及び、ネットワークカメラ103の制御を説明する。尚、図7の処理は、ビューワ端末101のCPU201がRAM203から読み出したプログラムを実行することで実現される。ここでは、表示枠503は、ユーザによる指によって操作(タッチ動作)する場合を例に挙げて説明する。
まず、カメラ画像表示部502内で2本の指による2ヵ所のほぼ同時のタッチを検知することにより、CPU201は、第1の座標704と第2の座標705を取得する(S801とS802)。尚、同時のタッチとは、実質的に同時であれば良く、例えば、第1の座標704の検知から、同時と見なせる所定時間内に第2の座標705を検知した場合も、同時のタッチとして検知する。
次に、CPU201は、この第1の座標704と第2の座標705とによって規定される表示枠703の表示を開始する(S803)。CPU201は、指の指示位置から取得した第1の座標704と第2の座標705との位置関係を判別する(S804)。
判別の結果、例えば、図7(b)のように、第1の座標704と第2の座標705が第1の所定の位置関係(例えば、右上と左下の組み合わせ(第1の座標704と第2の座標705を含む直線の傾きが正))である場合、CPU201は、広角制御の指示であると判別する。この場合、CPU201は、第1の座標704と第2の座標705で規定される表示枠703を表示するとともに、その表示枠703のサイズに応じて、カメラ画像表示部702で表示しているライブ画像のサイズを変更(縮小)して表示枠703内に表示させる(S805A)。また、このとき、CPU201は、表示枠703外のカメラ画像表示部702に、その表示枠703のサイズに応じて、2次記憶装置202に予め記憶しているパノラマ画像のサイズを変更して表示する(S806A)。
次に、2本の指がタッチパネルから離れることでタッチ動作が終了したことを検知することにより、CPU201は、そのタッチ動作の終了直前の2本の指が指示する位置を検知して、第1の座標704及び第2の座標705が確定したか否かを判定する(S807)。第1の座標704及び第2の座標705が確定していない場合(S807でNO)、S801に戻る。一方、第1の座標704及び第2の座標705が確定した場合(S807でYES)、CPU201は、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出して、その算出した撮影条件に従う制御をネットワークカメラ103に対して指示する(S808)。この制御では、CPU201は、例えば、図7(c)のように、ネットワークカメラ103の撮影画像が、最後に設定された表示枠703に表示される状態の画像となるように、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出する。その後、CPU201は、表示枠703の表示を終了し、パノラマ画像の表示からネットワークカメラ103から受信する撮影画像に切り替えてカメラ画像表示部502に表示させる(S809)。
一方、S804の判別の結果、図7(d)のように、第1の座標704と第2の座標705が第2の所定の位置関係(例えば、左上と右下の組み合わせ(第1の座標704と第2の座標705を含む直線の傾きが負))である場合、CPU201は、望遠制御の指示であると判別する。この場合、CPU201は、カメラ画像表示部702で表示している画像に重畳して、第1の座標704と第2の座標705で規定される表示枠703を表示する(S805B)。換言すれば、CPU201は、表示枠703内に、カメラ画像表示部702の部分画像をそのまま表示する。
次に、2本の指がタッチパネルから離れることでタッチ動作が終了したことを検知することにより、CPU201は、そのタッチ動作の終了直前の2本の指が指示する位置を検知して、それらの位置を第1の座標704及び第2の座標705として確定する(S807でYES)。その後、CPU201は、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出して、その算出した撮影条件に従う制御をネットワークカメラ103に対して指示する(S608)。この制御では、図7(e)のように、ネットワークカメラの撮影画像が、最後に設定された表示枠703に表示される状態の画像となるように、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出する。その後、CPU201は、表示枠703を消去して、ネットワークカメラ103から受信する撮影画像をカメラ画像表示部702に表示する(S809)。
本実施形態では、タッチパネル上での第1の座標704と第2の座標705は、指による2点の同時のタッチで指示しているが、これに限定されない。例えば、実施形態2と組み合わせて、第1の座標704と第2の座標705をスワイプ動作によって指示して表示枠703自体を拡大縮小したり、移動したりするようにしても良い。
また、望遠制御及び広角制御の判別は、2点のタッチ動作によって、第1の座標704と第2の座標705に対して、複数の種類の所定の位置関係にあるか否かを検知することで行っているが、これに限定されない。ここで、複数の種類の所定の位置関係とは、第1の座標704と第2の座標705を結ぶ線分の傾きが正であるか、負であるかである。この判別に使用する判別条件は、この所定の位置の関係が逆でも良い。
以上説明したように、本実施形態によれば、実施形態2で説明した効果に加えて、広角制御時に表示枠の枠外に、予め記憶しておいたパノラマ画像を用いた画像を表示することで、カメラ制御後の画像の状態を把握しやすくなり、カメラが実際に動かした後の操作のやり直しを防ぐことができる。
<実施形態4>
上述の実施形態1〜3では、主に、ビューワ端末101側の処理について説明したが、以下では、ビューワ端末101とネットワークカメラ103との通信処理及びネットワークカメラ103側の動作に関して説明する。具体的には、実施形態1〜3においてビューワ端末101側で指定された第1の座標904及び第2の座標905に関する情報をネットワークカメラ103が受け取る形態である。つまり、第1の座標904及び第2の座標905に基づいてネットワークカメラ103が撮影条件を算出し、制御装置としての役割を果たす形態である。
実施形態4では、実施形態1と同様に、カメラ画像表示部902内でのマウスクリック動作を検知することにより、CPU201は、第1の座標904を取得する。この第1の座標の指示を検出した後、CPU201は、マウスの移動に応じて変化するマウスの指示位置を示す第2の座標905を取得する。CPU201は、第2の座標905の取得に従って、第1の座標904と第2の座標905とによって規定される表示枠903の表示を開始する。CPU201は、マウスの移動を監視して、そのマウスの指示位置から取得した第1の座標904と第2の座標905との位置関係を判別する。
判別の結果、例えば、図9(a)のように、第1の座標904に対して第2の座標905が第1の所定方向、左または下に位置している場合には、広角制御であると判別し、表示枠903を表示するとともに、その表示枠903のサイズに応じて、カメラ画像表示部902で表示している画像サイズを変更(縮小)して表示枠903内に表示する。図9(a)では、カメラ画像表示部902に表示されている画像が表示枠903に縮小表示されている例を示している。
次に、マウスのクリック動作を検知することにより、CPU201は、第2の座標905の指定を検知して、第2の座標905が確定したか否かを判定する。判定の結果、第2の座標905が確定した場合、CPU201は、以下に説明するBoxZoomコマンドとして、確定した第1の座標904及び第2の座標905に関する情報をネットワークカメラ103に送信する。
ネットワークカメラ103側のCPU210は、CPU201と同様に、第1の座標904と第2の座標905との位置関係を、例えば、パン方向(横方向)に関して判別する。判別の結果、第1の座標904に対して第2の座標905が左側に位置している場合には、広角制御であると判別する。CPU210は、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出して、その算出した撮影条件に従う制御を撮影装置214に対して指示する。この制御では、CPU210は、図9(b)のように、表示枠903に現在表示されている状態の画像が表示枠903の領域に配置されるように、撮影装置214の画角と撮影方向を含む撮影条件を算出する。つまり、CPU210は、表示枠903の設定が確定した時点(第2の座標905が確定した時点)での表示枠903で表示している画像と同一の表示状態(同一位置及び同一サイズ)がカメラ画像表示部902で表示する画像において再現されるように、ネットワークカメラ103の画角及び撮影方向を算出する。
一方、図9(c)のように、第1の座標904に対して第2の座標905が第2の所定方向(例えば、右または上)に位置している場合、CPU201は、マウスの操作が望遠制御の指示であると判別する。この場合、CPU201は、カメラ画像表示部902で表示している画像に重畳して、第1の座標904と第2の座標905で規定される表示枠903を表示する。換言すれば、CPU201は、表示枠903内に、カメラ画像表示部902の部分画像をそのまま表示する。
次に、マウスのクリック動作を検知することにより、CPU201は、第2の座標905の指定を検知して、その位置を第2の座標905として確定する。第2の座標905が確定した場合、CPU201は、以下に説明するBoxZoomコマンドとして、確定した第1の座標904及び第2の座標905に関する情報をネットワークカメラ103に送信する。
ネットワークカメラ側のCPU201は、ネットワークカメラ103の画角と撮影方向を含む撮影条件を算出して、その算出した撮影条件に従う制御をネットワークカメラ103に対して指示する。この制御では、CPU210は、例えば、図9(d)のように、ネットワークカメラ103の撮影画像が、表示枠903に表示される状態の画像となるように、撮影装置214の画角と撮影方向を含む撮影条件を算出する。一方、ビューワ端末101側のCPU201は、表示枠903を消去して、ネットワークカメラ103から受信する撮影画像をカメラ画像表示部902に表示する。
続いて、図10は、クライアントであるビューワ端末101とネットワークカメラ103との間において、画角及び撮影方向を変更する典型的なBoxZoomコマンドシーケンスを示している。ここで説明するトランザクションとは、ビューワ端末101からネットワークカメラ103経送信されるコマンドと、それに対してネットワークカメラ103がからビューワ端末101へ返送するレスポンスのペアのことを指している。
トランザクション1200は、Subscribeコマンドのトランザクションである。本コマンドの実行により、ネットワークカメラ103は、内部で発生したイベントをビューワ端末101へ送信するようになる。
トランザクション1201は、GetServiceCapabilitiesコマンドのトランザクションである。GetServiceCapabilitiesコマンドは、ネットワークカメラ103がサポートする機能を示す機能情報を返送するように指示するコマンドである。本機能情報には、ネットワークカメラ103が、ビューワ端末101のカメラ表示部で設定された第1の座標と第2の座標に基づいてネットワークカメラ103の画角と方向を算出する機能を含む。この機能に対応するコマンドはBoxZoomコマンドと呼ばれ、上述したように、識別情報(BZCのトークン)とともに第1の座標及び第2の座標に関する情報がコマンド内に含まれる。以下、BoxZoomをBZ、SetBoxZoomをSetBZ、SetBoxZoomConfigurationをSetBZCと省略することがある。
トランザクション1202は、GetBZCコマンドのトランザクションである。このコマンドにより、ビューワ端末101は、ネットワークカメラ103が保持するBZCのリストを取得する。BZCのリストには、第1の座標と第2の座標の大小の比較結果や、移動方向の判別結果に基き画角を広角制御するか、望遠制御するかの設定と、広角制御と望遠制御の比率の設定と、ネットワークカメラの方向(パン、チルト)を演算する演算方法の設定等の設定が含まれる。
トランザクション1203は、SetBZCコマンドのトランザクションである。このコマンドにより、ネットワークカメラ103は、BZCの各パラメータを設定する。BZC設定を更新したことを示すSetBZCレスポンスをビューワ端末101に送信する。本コマンド終了後、ネットワークカメラ103は、BZCに何らかの変更があったことをビューワ端末101に通知するためにBZC変更通知イベントを送信する。
トランザクション1204は、BoxZoomコマンドのトランザクションである。このコマンドにより、ビューワ端末101は、ネットワークカメラ103に、BZコマンドとして、BZCのトークン(識別情報)、第1の座標(X1,Y1)と第2の座標(X2,Y2)を送信する。BZコマンドを受信したネットワークカメラ103は、BZCトークンと第1の座標と第2の座標とをRAM212に記憶するとともに、BZレスポンスをビューワ端末101に送信する。
図11は、ビューワ端末101のカメラ画像表示部902に表示されるネットワークカメラ103の撮影画像を、Onvifで定義されている座標系で表示したものである。Onvifでは、撮影画像領域の座標系として、X座標は、−1〜+1の範囲に割りつけられ、Y座標も同じく、−1〜+1の範囲に割りつけられる。図11を用いて、図9及び図10で説明した実施形態4の座標系と撮影条件制御演算の一例を説明する。
図11において示した座標系において、ビューワ端末101で検知された第1、第2の座標値は、RAM203に記憶され、更に、ビューワ端末101は、BZコマンドを含むBZリクエストをネットワークカメラ103に送信する。
図12のフローチャートを用いて、ネットワークカメラ103のBZコマンド処理について説明する。尚、以下に説明するネットワークカメラ103の撮影画角を演算する処理は、実施形態1〜3にも適用できる。また、図12の処理は、ネットワークカメラ103のCPU210がRAM212から読み出したプログラムを実行することで実現される。
S1500で、BZリクエストを受信したネットワークカメラ103のCPU210は、BZコマンドにより指定された、BZCのトークン、第1の座標値(X1、Y1)と第2の座標値(X2、Y2)をRAM212に記憶する。
次に、S1501で、CPU210は、記憶された第1の座標値(X1、Y1)と第2の座標値(X2、Y2)から、ネットワークカメラ103の撮影方向を演算する。演算式は次式となる。変更後の撮影方向中心座標値を906(X3、Y3)とすると、
(X3、Y3)=((X1+X2)/2、(Y1+Y2))
となる。
次に、S1502で、CPU210は、演算した中心座標値906(X3、Y3)をRAM212に記憶する。
次に、S1503で、CPU210は、第1の座標値(X1、Y1)と第2の座標値(X2、Y2)の大小関係(比較)に基づいて、広角制御の指示であるか望遠制御の指示であるかを判定する。ここで、変更後の画角制御倍率をZとする。
X1=X2の場合、CPU210は、画角倍率の変更なしと判定して、Z=1の値をRAM212に記憶してS1507に進む。
X1<X2の場合、S1504に進み、CPU210は、望遠制御と判定して次式で示される画角制御倍率Zを演算する。
Z=|2/(X1−X2)|
尚、縦線| |は、絶対値を示す算術記号である。例えば、X1=−0.7、X2=−0.2の場合、Z=4となり、現在のズーム倍率に対して相対的に4倍の望遠側のズーム倍率の制御となる。
X1>X2の場合、S1505に進み、CPU210は、広角制御(ズームアウト)と判定して次式で示される画角制御倍率を演算する。
変更後の画角制御倍率をZとすると、
Z=|(X1−X2)/2|
尚、縦線| |は、絶対値を示す算術記号である。例えば、X1=−0.2、X2=−0.7の場合、Z=0.25となり、現在のズーム倍率に対して相対的に0.25倍の広角のズーム倍率の制御となる。
尚、S1505では、上述の処理に代えて、例えば、以下のようにズームの広角制御をしてもよい。
(A)第1の座標値、及び第2の座標値にかかわらず、ズームの制御量(ズームアウト量)を一定とする。例えば、焦点距離を現在の焦点距離から所定距離(例えば、−20mm)小さくする等の制御を行う。
(B)第1の座標値、及び第2の座標値にかかわらず、最大の広角(広角端)にズームを制御する。
(C)カメラ画像表示部902のサイズ(座標系の範囲)と、第1の座標値、及び第2の座標値によって規定される表示枠903とのサイズの比、最大ズーム量、及び現在のズーム量に基づいてズームの制御量を決定してもよい。具体的には、撮影画像領域であるカメラ画像表示部902と表示枠903とのサイズの比は、例えば、座標系のX方向の範囲に対する、第1の座標値、及び第2の座標値の差分から得られる矩形枠の一辺の長さの割合から得られる。例えば、第1の座標値X1=−0.2、及び第2の座標値X2=−0.7とすると、その差分は0.5である。座標系のX方向の範囲は2.0であるので、撮影画像領域と表示枠903とのサイズの比は0.4となる。
そして、算出するズーム量は、最大ズーム量から現在ズーム量の差分と撮影画像領域であるカメラ画像表示部902と表示枠903とのサイズの比とを乗算することにより得られる。即ち、図17に示されるように、制御されるべきズーム量=(最大ズーム量−現在ズーム量)×(表示枠903とカメラ画像表示部902とのサイズの比)となる。また、このとき、上述した説明と同様に、指定された表示枠の中心が撮影方向の変更後の撮影画像領域(カメラ画像表示部902)の中心となるように制御する。尚、ビューワ端末101からのリクエストに応じて、CPU210は、例えば、上記(A)〜(C)の広角側のズーム制御の種類を切り替えてもよい。
画角制御倍率の演算が終わると、S1506に進み、CPU210は、制御部105の記憶部に画角制御倍率を記憶してS1507に進む。
S1507で、CPU210は、制御部105の記憶部に記憶されている撮影方向座標値と画角制御倍率がカメラの可動/可視範囲であるか否かを判定する。カメラの可動/可視範囲でないと判定した場合(S1507でNO)、S1508に進み、CPU210は、ビューワ端末101にInvalidを送信してBoxZoomコマンド処理を終える。
一方、カメラの可動/可視範囲であると判定した場合(S1507でYES)、S1509に進み、CPU210は、カメラの撮影中心座標が、記憶部に記憶された中心座標値(X3、Y3)になるようにパンとチルトを駆動する。次に、記憶部に記憶された画角制御倍率にネットワークカメラ103をズーム駆動し、ビューワ端末101からBZコマンドリクエストにより指示された撮影条件にネットワークカメラ103を制御する。次に、S1510で、CPU210は、ビューワ端末101に正常応答を返送する。S1511で、CPU210は、BZコマンド受信処理を終了する。
次に、図13により、X1=X2の場合の処理例を説明する。S1503で、X1=X2の場合、CPU210は、画角倍率の変更なしと判定して、Z=1の値をRAM212に記憶する。そして、S1507で、CPU210は、カメラの可動/可視範囲であるか否かを判定する。カメラの可動/可視範囲でないと判定した場合は、S1508で、CPU210は、ビューワ端末101にInvalidを送信してBoxZoomコマンド処理を終える。
一方、S1507で、カメラの可動/可視範囲であると判定した場合、S1509に進み、CPU210は、撮影装置214の中心座標を現在の(0、0)から(X3(=X1)、Y3)となるように撮影方向を制御する。このとき、Y3は、第1、第2の座標のY座標の平均値である。次に、S1510で、CPU210は、ビューワ端末101に正常応答を返送する。そして、S1511で、CPU210は、BZコマンド受信処理を終了する。
図14は、実施形態4においてネットワークカメラ103のRAM212または2次記憶装置(不図示)が保持するパラメータの構造を図示している。図14において、MediaProfile3000、3001、及び3002は、ネットワークカメラ103の各種設定項目を関連づけて記憶するためのパラメータセットである。以後、MediaProfileをMPと省略することがある。MP3000、3001、及び3002のそれぞれは、MPのIDであるProfileTokenを保持する。
また、MP3000、3001、及び3002のそれぞれは、各種設定項目へのリンクを保持する。この各種設定項目には、後述のVideoSourceConfiguration3011、VideoEncoderConfiguration3020、3021、3031が含まれる。以後、VideoSourceConfigurationをVSCと省略することがある。
図14におけるVS3010は、ネットワークカメラ103が備える1つの撮影装置214の性能を示すパラメータの集合体である。ここで、VS3010は、VS3010のIDであるVideoSourceTokenや、撮影部104が出力可能な画像の解像度を示すResolution等のパラメータを含む。VEC3020、及び3021は、画像データの圧縮符号化に関するエンコーダ設定をMPに関連付けるパラメータの集合体である。
ネットワークカメラ103は、VS、及びVSCの内容に基づいて撮影部104から出力される撮像画像を、VECに基づいて圧縮符号化し、画像データとして通信部106を介してビューワ端末101に配信する。
図14におけるBZC3030、3031は、ネットワークカメラ103の撮影方向、及び、望遠制御と広角制御に関する設定をMPに関連付けるパラメータの集合体である。BZCは、BZCのIDであるBZCトークン、第1と第2の座標値、及び第1と第2の座標値の比較によりネットワークカメラの撮影方向と望遠制御、及び広角制御の設定をするパラメータを含む。
実施形態4では、第1のX座標(X1)より第2のX座標(X2)が大きい場合は、即ち、X1<X2の場合に望遠制御としたが、BZCの設定により、広角制御と設定することもできる。
また、実施形態4では、第1のX座標(X1)と第2のX座標(X2)が等しい場合は、即ち、X1=X2の場合は、画角制御(ズーム制御)は行わず、Y座標(チルト)のみ駆動制御する例を説明しているが、これに限定されない。例えば、BZCの設定により、X1=X2の場合であって、Y1≠Y2の場合であっても適切な座標が設定されなかったとみなし、撮影装置214方向のY方向の制御を制限する設定もできる。
尚、上記したBZCの設定例は一例にすぎず、演算式に係数を設定して見かけの感度を大きくしたり小さくしたりすることも可能である。
<実施形態5>
本実施形態では、実施形態1〜4における表示枠設定中に、現在の状態で表示枠が確定した場合にカメラがどのように動作するかをユーザに通知する処理について説明する。
図15及び図16のフローチャートを用いてビューワ端末101による表示処理を説明する。
尚、ビューワ端末において、図16に示される手順は、CPU201が2次記憶装置202に格納されたプログラムをRAM203に展開して実行することにより実現される。あるいは、図16に示す処理の一部又は全体をビューワ端末101に搭載されるハードウェアが行うこととしてもよい。
図15は、ビューワ端末101のユーザインタフェースの一例であり、表示領域1001、カメラ画像表示部1002、表示枠1003は実施形態1〜4と同様に構成されている。パノラマ表示部1008にはパノラマ画像が表示される。パノラマ画像は、あらかじめ複数回に分けてカメラの撮像方向を変更して撮影された画像をつなぎ合わせた画像である。即ち、ユーザは、パノラマ画像を用いてカメラの現在の撮影画角よりも広い領域を確認できる。パノラマ表示部1008には、ネットワークカメラ103が現在どの領域を撮影しているのかを示す表示枠1009が表示される。本実施形態では、パノラマ画像を表示する場合について説明するが、これに限らない。カメラが撮像方向を変更して撮像可能な範囲を示す枠のみを表示し、パノラマ画像は表示しなくてもよい。このような構成によっても、ユーザはカメラが撮像方向を変更して撮像可能な範囲における、現在カメラが撮影している範囲の位置及び大きさを認識することができる。
図16において、ユーザのマウスクリックによって設定された第1の座標と第2の座標を取得する(S1001、S1002)。取得された第1の座標と第2の座標とに基づいて表示枠の設定を開始する(S1003)。
このとき、実施形態1〜4に示された処理と同様に、取得した座標の位置関係の判別を行う(S1004)。広角制御と判別した場合は、図15(a)のように、カメラ画像表示部1002に広角制御を示すアイコン1006を表示する(S1005A)。また、望遠制御と判別した場合は、図15(c)のように、カメラ画像表示部1002に望遠制御を示すアイコン1007を表示する(S1005B)。このようにアイコンを表示することにより、現在の表示枠で確定した場合に、カメラが広角制御されるのか、望遠制御されるのかを、ユーザが認識することができる。
例えば、第1の座標の右上又は左下において第2の座標が指定されると、広角制御の実行と判定される。この場合、CPU201は、操作画面上に広角制御を行っていることを示すアイコンを表示させる。
また、例えば、第1の座標の右下又は左上において第2の座標が指定されると、望遠制御の実行と判定される。この場合、CPU201は、操作画面上に望遠制御を行っていることを示すアイコンを表示させる。このアイコンは広角制御の場合と同様に撮像画像上に表示されるようにすることができる。このアイコンは、図15に示すように、撮像画像上に表示されることとしてもよいがこの限りではない。
このように、第1の座標と第2の座標との位置関係に応じて、操作画面上に表示させるアイコンを切り替える制御が実行される。
また、表示枠1003内にアイコンを表示してもよいが、表示枠1003が一定のサイズ以上の場合にのみ表示することで、表示枠の設定操作の妨げとならないようにすることができる。
即ち、第1の座標及び第2の座標によって指定される範囲が所定の大きさよりも大きい場合には、当該指定された範囲内(表示枠1003内)にアイコンを表示させる。一方、第1の座標及び第2の座標によって指定される範囲が所定の大きさよりも小さい場合には、指定された範囲外にアイコンを表示させるようにすることができる。
尚、第1の座標及び第2の座標によって指定される範囲が所定の大きさよりも大きいか否かは、例えば、選択された範囲の面積、または、第1の座標と第2の座標を結んだ線分の長さによって判定することができる。即ち、選択された範囲の面積が所定の面積よりも大きい場合、または、第1の座標と第2の座標を結んだ線分の長さが所定の長さよりも長い場合には、選択された範囲が所定の大きさよりも大きいと判定することができる。
あるいは、一度、カメラ制御を行った後にもう一度表示枠の設定を行った場合にはアイコンを表示しないようにしてもよい。また、アイコンは広角制御と望遠制御の2種類に限らず、表示枠で設定中の位置がカメラの撮影可能範囲外であった場合には異なるアイコンを表示しても良い。更に、アイコンによる通知に限定されず、メッセージや表示枠の表示方法の変更といった、広角制御か望遠制御かの区別がつく方法で通知を行ってもよい。例えば、第1の座標と第2の座標により指定される範囲を示す表示枠1003の色を、第1の座標と第2の座標との位置関係に応じて変化させることとしてもよい。即ち、第1の座標と第2の座標の位置関係が広角制御を指示するための位置関係である場合と、望遠制御を指示するための位置関係である場合とで、枠の色を異ならせることとしてもよい。
次に、表示枠の位置が設定された場合、カメラがどの領域を撮影するかを示す表示枠1010をパノラマ表示部1008に表示する(S1006)。尚、表示枠の位置が確定される前であっても第2の座標の移動に従って、移動後位置表示枠の位置及びサイズもリアルタイムに変化させてもよい。
図15(a)では広角制御されるため、広角制御後の撮影画角を示す表示枠1010は、現在の撮影画角を示す表示枠よりも大きくなる。また、図15(c)では望遠制御されるため、望遠制御後の撮影画角を示す表示枠1010は、現在の撮影画角を示す表示枠1009より小さくなる。このように制御後の撮影画角を示す表示枠1010及び現在の撮影画角を示す表示枠910を表示させることによって、カメラの撮影画角がどのように制御されるのかをユーザが認識することができる。
その後、第1の座標と第2の座標とが確定されると(S1007)、確定された座標に基づいてネットワークカメラ103の撮影画角と撮影方向を算出し、ネットワークカメラに対して指示を与える(S1008)。
そして、表示枠1009及び1010の表示のみを消去して、カメラの画像を画像表示部に表示する(S1009)。図15(a)に示す座標の指定の結果として、図15(b)のような画像が表示され、図15(c)に示す座標の指定の結果として、図15(d)のような画像が表示される。
以上説明したように、本実施形態におけるビューワ端末によれば、カメラ制御後の画像の状態がイメージしやすく、カメラを想定した通りに制御しやすくなる。
<産業上の利用可能性>
ビューワ端末のユーザインタフェースは、画像を用いた監視カメラの設定を行う場合に好適である。
尚、以上の実施形態の機能は以下の構成によっても実現することができる。つまり、本実施形態の処理を行うためのプログラムコードをシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)がプログラムコードを実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することとなり、またそのプログラムコードを記憶した記憶媒体も本実施形態の機能を実現することになる。
また、本実施形態の機能を実現するためのプログラムコードを、1つのコンピュータ(CPU、MPU)で実行する場合であってもよいし、複数のコンピュータが協働することによって実行する場合であってもよい。更に、プログラムコードをコンピュータが実行する場合であってもよいし、プログラムコードの機能を実現するための回路等のハードウェアを設けてもよい。またはプログラムコードの一部をハードウェアで実現し、残りの部分をコンピュータが実行する場合であってもよい。
101:ビューワ端末、102:ネットワーク、103:ネットワークカメラ、104:撮影部、105:制御部、106及び110:通信部、111:表示部、112:入力部、113:表示枠設定部、114:表示制御部、115:撮影制御部

Claims (16)

  1. 撮像装置によって撮像された撮像画像を表示手段に表示させる表示制御手段と、
    前記表示制御手段において表示される前記撮像画像に対する操作によって指定される第1の位置に対する第2の位置の相対的な位置に基づいて、前記操作が、望遠処理を実行させる操作であるか、又は、広角処理を実行させる操作であるかを判定する判定処理を行う判定手段と、
    を有し、
    前記表示制御手段は、前記操作が行われている場合に、前記判定処理の結果に応じた情報を前記表示手段に表示させる
    ことを特徴とする制御装置。
  2. 前記操作が完了すると、前記判定処理の結果に応じて、前記望遠処理又は前記広角処理を前記撮像装置に実行させる制御手段
    を更に有することを特徴とする請求項1に記載の制御装置。
  3. 前記撮像画像に対する前記操作が前記広角処理を実行させる操作であると前記判定手段によって判断され、前記操作が完了した場合、
    前記制御手段は、前記第1の位置と前記第2の位置とによって定まる領域に撮像装置によって撮像される画像の画角が対応するように前記広角処理を前記撮像装置に実行させる
    ことを特徴とする請求項2記載の制御装置。
  4. 前記操作はタッチパネルを介して行われ、
    前記制御手段は、前記タッチパネルにポインティングデバイスが触れていない状態から触れた状態となると、その触れた位置を前記第1の位置とし、前記ポインティングデバイスが前記タッチパネルから離れると、前記操作が完了したと判断する
    ことを特徴とする請求項2記載の制御装置。
  5. 前記制御手段は、前記撮像画像に対して前記第1の位置が指定され、その後、前記第1の位置とは異なる位置が指定されると、前記操作が完了したと判断する
    ことを特徴とする請求項2記載の制御装置。
  6. 前記判定手段は、
    前記第1の位置に対して前記第2の位置が第1の方向に位置する場合に、前記操作が前記望遠処理を実行させる操作であると判定し、
    前記第1の位置に対して前記第2の位置が前記第1の方向とは反対の第2の方向に位置する場合に、前記操作が前記広角処理を実行させる操作であると判定する、
    ことを特徴とする請求項1に記載の制御装置。
  7. 前記判定手段は、前記第1の位置と前記第2の位置とを結ぶ線分の傾きを、前記第1の位置に対する前記第2の位置の相対的な位置として、前記判定処理を行う、
    ことを特徴とする請求項1記載の制御装置。
  8. 前記表示制御手段は、前記第1の位置と前記第2の位置とに基づく枠を、前記表示手段を表示させる
    ことを特徴とする請求項1に記載の制御装置。
  9. 前記表示制御手段は、前記枠の外に前記撮像装置によって事前に撮像された画像を表示させる
    ことを特徴とする請求項8記載の制御装置。
  10. 前記撮像装置を更に有する
    ことを特徴とする請求項1に記載の制御装置。
  11. 前記情報は、前記判定処理の結果に応じたアイコンである
    ことを特徴とする請求項1記載の制御装置。
  12. 前記撮像画像に対する前記操作が前記広角処理を実行させる操作であると前記判定手段によって判断され、前記操作が完了した場合、
    前記制御手段は、予め定められたズーム値となるように前記広角処理を実行させる
    ることを特徴とする請求項2記載の制御装置。
  13. 前記制御手段は、前記予め定められたズーム値は、前記撮像装置における最も広角に撮像する状態に対応するズーム値である
    ことを特徴とする請求項12記載の制御装置。
  14. 前記望遠処理は、前記撮像装置にズームインさせる処理であり、
    前記広角処理は、前記撮像装置にズームアウトさせる処理である
    ことを特徴とする請求項1記載の制御装置。
  15. 前記情報は、前記望遠処理に対応する情報、又は、前記広角処理に対応する情報である
    ことを特徴とする請求項1記載の制御装置。
  16. 撮像装置によって撮像された撮像画像を表示手段に表示させる表示制御工程と、
    前記表示制御工程において表示される前記撮像画像に対する操作によって指定される第1の位置に対する第2の位置の相対的な位置に基づいて、前記操作が、望遠処理を実行させる操作であるか、又は、広角処理を実行させる操作であるかを判定する判定処理を行う判定工程と
    を有し、
    前記表示制御工程において、前記操作が行われている場合に、前記判定処理の結果に応じた情報を前記表示手段に表示させる
    ことを特徴とする制御方法。
JP2019002137A 2014-10-10 2019-01-09 制御装置及び制御方法、プログラム Active JP6618644B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014209397 2014-10-10
JP2014209397 2014-10-10

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014234911A Division JP6465625B2 (ja) 2014-10-10 2014-11-19 制御装置及びその制御方法、プログラム

Publications (2)

Publication Number Publication Date
JP2019062575A true JP2019062575A (ja) 2019-04-18
JP6618644B2 JP6618644B2 (ja) 2019-12-11

Family

ID=55959390

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014234911A Active JP6465625B2 (ja) 2014-10-10 2014-11-19 制御装置及びその制御方法、プログラム
JP2019002137A Active JP6618644B2 (ja) 2014-10-10 2019-01-09 制御装置及び制御方法、プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014234911A Active JP6465625B2 (ja) 2014-10-10 2014-11-19 制御装置及びその制御方法、プログラム

Country Status (5)

Country Link
US (1) US10841481B2 (ja)
EP (1) EP3205083B1 (ja)
JP (2) JP6465625B2 (ja)
CN (1) CN106797429B (ja)
RU (1) RU2664770C1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10956732B2 (en) * 2014-11-21 2021-03-23 Guy Le Henaff System and method for detecting the authenticity of products
JP6836305B2 (ja) * 2017-01-13 2021-02-24 キヤノン株式会社 撮像制御装置およびその制御方法
KR101897777B1 (ko) * 2018-03-29 2018-10-29 주식회사 에스오넷 영상 감시 화각을 간편하게 설정하는 영상 감시 시스템 및 그 방법
CN108683860A (zh) * 2018-08-28 2018-10-19 深圳市必发达科技有限公司 手机自拍方法、计算机可读存储介质及计算机设备
WO2021165764A1 (en) * 2020-02-22 2021-08-26 Corephotonics Ltd. Split screen feature for macro photography
CN113489906B (zh) * 2021-07-14 2022-11-15 长沙克莱自动化设备有限公司 控制拍摄设备的方法、装置、计算机设备和存储介质
CN113938614B (zh) * 2021-12-20 2022-03-22 苏州万店掌软件技术有限公司 一种视频画面的缩放方法、装置、设备及存储介质
CN115623337B (zh) * 2022-09-20 2023-11-17 北京城市网邻信息技术有限公司 跳转指示信息显示方法、装置、电子设备及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212726A (ja) * 1998-01-29 1999-08-06 Omron Corp 入力装置
US6148149A (en) * 1998-05-26 2000-11-14 Microsoft Corporation Automatic image rotation in digital cameras
JP2001145094A (ja) * 1999-11-12 2001-05-25 Canon Inc カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
JP2004032524A (ja) 2002-06-27 2004-01-29 Fuji Photo Film Co Ltd デジタルカメラ
US7002604B1 (en) * 2002-11-04 2006-02-21 Savaje Technologies, Inc. Screen rotation
JP2004157869A (ja) 2002-11-07 2004-06-03 Canon Inc 携帯端末
JP4346925B2 (ja) * 2003-02-25 2009-10-21 キヤノン株式会社 表示装置、表示装置の制御方法、プログラム及びコンピュータ読み取り可能な記録媒体
US7663666B2 (en) 2003-06-23 2010-02-16 Canon Kabushiki Kaisha Operation at mobile terminal when communicating with remote camera
JP2005130390A (ja) * 2003-10-27 2005-05-19 Anritsu Corp 表示画面制御装置及びそれを用いた遠方監視装置
JP4579613B2 (ja) * 2004-08-04 2010-11-10 キヤノン株式会社 画像処理装置及び方法、及び撮像装置
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
KR101857564B1 (ko) * 2009-05-15 2018-05-15 삼성전자 주식회사 휴대 단말기의 이미지 처리 방법
US8723988B2 (en) * 2009-07-17 2014-05-13 Sony Corporation Using a touch sensitive display to control magnification and capture of digital images by an electronic device
JP2011171832A (ja) * 2010-02-16 2011-09-01 Olympus Imaging Corp 撮像装置
JP2012203832A (ja) * 2011-03-28 2012-10-22 Canon Inc 表示制御装置及びその制御方法
CN102231799B (zh) 2011-06-29 2013-03-27 厦门博聪信息技术有限公司 一种ptz摄像机瞬时光学就位系统及其方法
US9001255B2 (en) * 2011-09-30 2015-04-07 Olympus Imaging Corp. Imaging apparatus, imaging method, and computer-readable storage medium for trimming and enlarging a portion of a subject image based on touch panel inputs
US9075460B2 (en) * 2012-08-10 2015-07-07 Blackberry Limited Method of momentum based zoom of content on an electronic device
CN103729128B (zh) 2012-10-10 2017-12-22 腾讯科技(深圳)有限公司 一种摄像设备变换焦距的方法及装置
DE102013224590B4 (de) * 2012-12-03 2019-07-18 Canon Kabushiki Kaisha Anzeigevorrichtung und deren steuerverfahren
KR102110387B1 (ko) * 2013-07-15 2020-05-14 삼성전자주식회사 전자 기기 제어 방법 및 장치
KR20160029536A (ko) * 2014-09-05 2016-03-15 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Also Published As

Publication number Publication date
JP6618644B2 (ja) 2019-12-11
US20170310882A1 (en) 2017-10-26
EP3205083A1 (en) 2017-08-16
RU2664770C1 (ru) 2018-08-23
JP2016082556A (ja) 2016-05-16
US10841481B2 (en) 2020-11-17
CN106797429A (zh) 2017-05-31
EP3205083A4 (en) 2018-08-15
CN106797429B (zh) 2021-03-05
JP6465625B2 (ja) 2019-02-06
EP3205083B1 (en) 2023-08-02

Similar Documents

Publication Publication Date Title
JP6618644B2 (ja) 制御装置及び制御方法、プログラム
KR101739318B1 (ko) 표시 제어장치, 촬상 시스템, 표시 제어방법, 및 기록 매체
JP5791256B2 (ja) 表示制御装置、表示制御方法
EP3367662B1 (en) Control device, camera system, and program
CN106454065B (zh) 信息处理装置及其控制方法
JP5724346B2 (ja) 映像表示装置、映像表示システム、映像表示方法およびプログラム
JP2011205573A (ja) 制御装置、カメラシステム及びプログラム
JP6312046B2 (ja) 画像処理システム、画像処理方法、及びプログラム
US9906710B2 (en) Camera pan-tilt-zoom (PTZ) control apparatus
JP2016096481A (ja) 制御装置、撮像システム、制御方法、及び、プログラム
JP6347663B2 (ja) 制御装置、撮像システム、制御方法、及び、プログラム
CN103475808A (zh) 给图像拍摄装置的操作者显示图像的方法、系统和装置
JP2006191408A (ja) 画像表示プログラム
JP4998522B2 (ja) 制御装置、カメラシステム、及びプログラム
KR20180083795A (ko) 촬상 제어 장치, 그 제어 방법 및 컴퓨터 판독가능한 저장 매체
JP6401480B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP4777486B2 (ja) カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP5177045B2 (ja) 画像表示装置、撮像装置、画像表示システム、画像表示方法および画像合成装置
WO2016056177A1 (en) Control apparatus, method of controlling the same and program
JP7431609B2 (ja) 制御装置及びその制御方法及びプログラム
JP5241880B2 (ja) カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP2019061629A (ja) 情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム
JP2018098627A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015141471A (ja) 情報処理装置及び情報処理装置の制御方法
JP2015228549A (ja) カメラ制御を行うための情報処理装置およびその方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191112

R151 Written notification of patent or utility model registration

Ref document number: 6618644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151