JP3744995B2 - Imaging method and apparatus - Google Patents

Imaging method and apparatus Download PDF

Info

Publication number
JP3744995B2
JP3744995B2 JP00052696A JP52696A JP3744995B2 JP 3744995 B2 JP3744995 B2 JP 3744995B2 JP 00052696 A JP00052696 A JP 00052696A JP 52696 A JP52696 A JP 52696A JP 3744995 B2 JP3744995 B2 JP 3744995B2
Authority
JP
Japan
Prior art keywords
image
feature amount
command
gesture
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00052696A
Other languages
Japanese (ja)
Other versions
JPH09186923A (en
Inventor
和俊 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP00052696A priority Critical patent/JP3744995B2/en
Publication of JPH09186923A publication Critical patent/JPH09186923A/en
Application granted granted Critical
Publication of JP3744995B2 publication Critical patent/JP3744995B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、撮像方法とその装置に関する。
【0002】
【従来の技術】
最近、公衆回線や専用線を介して、遠隔地でのテレビ会議やデスクトップコンファレンスが行なわれるようになってきた。この時のビデオカメラは、定点固定のものから、遠隔地からズームやパンなどの操作を行なうものもある。
遠隔地からカメラを操作するときは、映し出される映像を見ながら上下左右、ズーム、フォーカスのコマンドを送るか、または、コマンドに対応するアイコンをタッチして選択することにより対応するデータを送っていた。
【0003】
さらには、特開平6−205409に開示されているように、表示画面の下や右に設けたグラフィックバーなどをポインティングすることで、それに相当する角度をコマンドとして与えるようなこともできる。この時の計算は、カメラから受け取る焦点距離と画角から求められる。
また、文書に対して、マウスによる中心画像の指定や領域の指定でパンやズームを行なうことも提案されている。
【0004】
【発明が解決しようとする課題】
しかし、マウスなどで指定するには、画面上のポインティングや領域指定は容易ではあるが、さらにコマンドを伴うようなものや未知な映像のための画面外への指定や動きを伴うものなどには、他のコマンドやキー操作を併用しなくてはならなかった。
【0005】
また、従来、相手側から焦点距離などの情報を受け取って画角を計算していたが、遠隔地カメラからの具体的な情報がない簡易なシステムでは、自動的に画角を合せるのは困難であった。
本発明は、上記従来例に鑑みてなされたもので、撮像装置の制御を撮像装置側の物理的パラメータを知ることなしに、容易かつ適正に行うことができる撮像方法とその装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するため、本発明の撮像は以下の構成を備える。即ち、撮像装置から送られる画像を表示する表示工程と、前記表示工程で表示された画像に対して入力されたジェスチャに基づいて、前記撮像装置の動作を指示するコマンドを解釈するコマンド解釈工程と、前記画像に対して入力されたジェスチャに基づいて指定された画像部分の所定の特徴の特徴量を抽出する特徴量抽出工程と、前記特徴量抽出工程で抽出された特徴量と前記コマンド解釈工程で解釈されたコマンドとに基づいて、表示されている画像を変更するように前記撮像装置を制御する制御工程とを有し、
前記ジェスチャとして入力可能なジェスチャは、
該ジェスチャに基づいて指定された部分を新たな画像中心として前記表示されている画像を変更するように前記撮像装置を制御するためのジェスチャであり、
前記制御工程は、前記指定部分の特徴量と現在の画像中心の特徴量とに基づいて前記指定部分と前記現在の画像中心との間の距離及び画角を算出し、前記算出した距離及び画角に基づき基本単位の移動量で移動させる仮移動コマンドを算出し、前記算出した仮移動コマンドを前記撮像装置に対して発行し、前記仮移動コマンドにより前記撮像装置が移動した後の画像中心の特徴量と前記指定部分の特徴量とが一致しているか否かを判定し、前記画像中心の特徴量と前記指定部分の特徴量とが一致していなければ一致すると判定されるまで、移動後の画像中心の特徴量と前記指定部分の特徴量とに基づき前記仮移動コマンドを補正した補正コマンドを前記撮像装置に対して発行することを繰り返し、移動後の画像中心の特徴量と前記指定部分の特徴量とが一致すると判定されたら、前記撮像装置に対して移動の停止コマンドを発行する
【0007】
また、別の発明は、撮像装置から送られる画像を表示する表示工程と、前記表示工程で表示された画像に対して入力されたジェスチャに基づいて、前記撮像装置の動作を指示するコマンドを解釈するコマンド解釈工程と、前記画像に対して入力されたジェスチャに基づいて指定された画像部分の所定の特徴の特徴量を抽出する特徴量抽出工程と、前記特徴量抽出工程で抽出された特徴量と前記コマンド解釈工程で解釈されたコマンドとに基づいて、表示されている画像を変更するように前記撮像装置を制御する制御工程とを有し、前記所定の特徴は、前記ジェスチャに基づいて指定された画像部分を代表する色相と、前記画像部分内でその色相で代表される領域の位置情報とを含む
【0008】
【発明の実施の形態】
ペンから入力されるジェスチャに従って、指示された方向や大きさまでカメラが動くように元画像と現画像を比較しながらカメラ操作コマンドを発行する。
(第1の実施の形態)
図1に、本発明に係る一実施の形態のカメラ制御装置の構成図を示す。
【0009】
表示制御部1は、アプリケーションの内容や内蔵されているカメラの映像や、各種通信手段を介して送られてくる遠隔地の映像を表示させるための表示制御を行なう。
表示装置2は、CRTや液晶などで構成され、3は表示装置と一体の構造になっているデジタイザなどのペン入力手段である。
【0010】
4は、ペン入力手段によって入力された線軌跡の形、位置、大きさ、方向などから入力されたコマンドを解釈するジェスチャコマンド解析手段である。
5は、通信によって受け取った映像から特徴を抜き出す特徴抽出手段、6は、ペン入力手段からジェスチャコマンドが指定されたときに対象となる画像の特徴を記憶しておくリファレンスバッファである。
【0011】
7は、現映像の画像特徴を記憶しておく現画像バッファである。
8は、ジェスチャコマンドに応じてリファレンスと現画像の比較を行ない、コマンドの達成度を求める比較手段、また、9は、その比較結果に応じて、表示されている画面に応じた制御をカメラにフィードバックするようにコマンドを与えるカメラ操作コマンド制御手段である。カメラへのコマンドは、内蔵のカメラ、または、遠隔地のカメラに送られる。
【0012】
図2には、カメラ装置の構成を示す。
10、はカメラ部であり、レンズを通した映像をCCDのような受光素子で受け、さらに、NTSCのような標準の信号形式やデジタル信号にして本体に送る。
11は、本体、または、遠隔地から送られてくる制御コマンドを受ける外部I/Oである。
【0013】
12は、コマンドを解釈して各デバイスを制御するカメラ制御部である。
13は、カメラをパンするための水平移動モータ、14は、縦方向の動きを行なうための傾斜移動モータである。
次に、図3Aに、カメラ部とカメラ制御本体が一体となった情報処理システムの内部ブロックの例を示す。
【0014】
15は、機器全体の制御及びアプリケーションの実行を行なう、32または16ビットのCPUである。
16は、CPUと周辺のI/O、即ち、割り込み制御、シリアル・パラレル通信、RTCなどの制御のための周辺I/Oコントローラである。
17は、コントロール実行プログラムやワーク領域に用いるRAM/ROMである。
【0015】
18は、アプリやユーザデータを蓄えるためのHDD(ハードディスク)である。
19は、表示上に示された画像に領域を指示したり、メニューの選択や文字入力に用いるペン軌跡を座標値に変換するデジタイザである。
1は、表示装置(液晶)2に画面を表示させるための表示制御コントローラである。
【0016】
20は、マイク・スピーカ21を介して音声の再生を制御する音声制御コントローラである。
12は、前述のように外部や本体によって指示されるカメラコマンドを解釈してカメラを制御するカメラ制御部である。
22は、モデム23を介して電話回線からコンピュータやFAXなどの機器とのデータのやり取りを制御する通信制御部である。これは、LANなどを介した通信でも良い。さらに、その時の通信媒体は、有線でも無線でもよく、また、データはアナログ形式でもデジタル形式でも良い。
【0017】
次に、図3Aの装置全体の外観を図3Bに示す。
図4は、実際に用いられるジェスチャコマンドの一覧表である。
(1)は、その点が画像の中心になるようにカメラを移動させるコマンドで、ジェスチャはその点を一度タップすることである。
尚、動作の欄の丸点がタップ位置を示し、活字矢印は、この丸点位置に注目してほしいことを意味する。活字矢印は、実際に入力するものではない。
【0018】
(2)は、最初のペンダウンの点をペンアップの点まで移動させるコマンドで、ジェスチャはタップとドラッグ(引きずる)である。
尚、活字矢印は、タップ点を示すためのもので、実際に入力するものではない。 (3)は、その点に焦点が合うようにするコマンドで、ジェスチャはダブルタップである。
【0019】
尚、丸点は、2つ少し離れて置かれているが、これは、図示の便宜上、2つあつことを明示するためであり、実際は、同じ位置で2回タップされることを意味する。また、活字矢印は、その点位置に注目してほしいことを意味し、実際に入力するものではない。
(4)は、ペンで書いた矢印の方向にカメラを移動し、タップの入力で動きの停止を行なうコマンドで、ジェスチャは矢印とタップである。
【0020】
(5)は、両矢印で囲まれた領域までズームインするコマンドで、ジェスチャは両矢印である。
(6)は、同じくズームインで、最初に書かれた小さい丸を中心に次に書く大きな丸の大きさまでズームインするコマンドで、ジェスチャは、小さい丸と矢印と大きな丸である。
【0021】
(7)は、最初のポインティング点を中心にズームアウトしていき、タップで止まるコマンドで、ジェスチャはピッグテイルとタップである。
(8)は、最初に書いた大きな丸を中心に、次に書く小さい丸の大きさになるまでズームアウトするコマンドで、ジェスチャは大きな丸と矢印と小さな丸である。
【0022】
これらのコマンド解釈方法は、既存のペンコンピュータで用いられているジェスチャコマンドの拡張になるので、特にここでは説明しない。
次に、図5のカメラ制御のフローチャートを参照して説明する。
まず、ステップS1では、デジタイザからのペン入力座標を読込む。
ステップS2では、どのコマンドをどの様に指示しているかを解釈する。
【0023】
ステップS3では、現在、タップで中断するようなコマンド(図4の4,7)の実行中であるかどうかを判定して、そうならば、ステップS4で停止コマンドを発行して終了する。
逆に、そうでないときは、ステップS5へ進む。
ステップS5では、後述するリファレンスを求める初期設定演算を行なう。
【0024】
ここでは、指定された対象点での画像の特徴の抽出を行なう。
ここでは、特徴として、例えば、指定された対象点の近傍の3×3のブロックに注目して、そのブロックに含まれる複数の画素から代表的な色相を例えば2つ抽出する。そして、各色相と各色相が位置するそのブロックでの相対位置情報が前述のリファレンスとなる。
【0025】
尚、ここでは、ブロックの特徴として色相を上げたが、これに限定されるものではなく、さらに、明度彩度等の色を特色づける特徴の組み合わせてもよいことは言うまでもない。
そして、次に、ジェスチャコマンドを実際に達成するために、カメラに最初に与える制御コマンドを計算する。例えば、(1)でのタップ点を画像の中心に持っていくためには、タップ点と画像中心の関係を求めて、仮の移動コマンドを発行する。
【0026】
ここで、仮の移動コマンドとは、カメラ部での画角やタップ点までの実際の移動距離に関する情報がないため、基本単位の移動量で移動させるコマンドを意味する。基本的に、この基本単位での移動量で移動させるコマンドを複数回発行することで、最終的に目的の点に移動できる。
即ち、正確なカメラの移動量は、現在のカメラの状況(対象までの距離、レンズの画角)がわからなければ計算できないので、本実施の形態では、画像の対象点を見ながらフィードバックをかける。
【0027】
仮の移動コマンドは、例えば、タップ点と画像中心までのX,Yの距離と仮画角、仮対象距離にもとづいて算出される。
さらにコマンド(4)では、矢印の方向、また、コマンド(6,8)では、大小の円の比なども計算する。
ステップS6では、この計算されたコマンドを実際に遠隔地のカメラに発行する。
【0028】
ステップS7では、現在の画像の対象点を評価する。そして、ステップS8で、ジェスチャコマンドで要求された画像になっているかを判定する。画像がコマンドに対応したものになっていれば、ステップS9で停止コマンドを発行して終了する。そうでなければ、ステップS10で、補正のコマンドを発行する。前述の仮定数では、移動中に誤差が起こるために、常にフィードバックが必要となる。方向が合っているが、まだ到達していないときなどは、補正のコマンドは何も発行されない。
【0029】
以上のように、ペン入力で表示を見ながら表示上に直接コマンドを与えられるので、操作方法が非常にわかりやすい。
さらには、遠隔地操作の場合は、相手から送られて来る画像をもとに制御を行なうため、従来の遠隔地操作ができるカメラがあれば何も付加しなくても制御が可能になる。
(第2の実施の形態)
上述の実施の形態では、カメラの動作は一致点を見つけ出すか、ペンのタップで動作は終了していた。
【0030】
一方、近年、遠隔地間での共同作業を行なうときに、お互いの状況を把握するためのアウエアネス(Awareness)システムの研究が行なわれるようになった。例えば、実際に相手を訪ねたら、不在だったときに居室のまわりを見渡すように、相手がディスプレイの前にいない時にカメラで見渡してみるようなもので、普段のふれ合いを遠隔地でも実現しようとするものである。
【0031】
このときには、上述の実施の形態のように一方方向では、見つけることが出来ないし、監視などの目的にも使用することは出来ない。
本実施の形態では、ジェスチャをさらに拡張して、往復運動や円運動など、タップによるストップが入るまで、動き続けることができる。
ジェスチャの例は、図4のコマンド(9)(10)に示す。
【0032】
まず、(9)は、軌跡で示された範囲を一定速度で往復運動させるコマンドで、ジェスチャは横八の字である。また、(10)は同じところに2重丸を書くもので、カメラを一定速度で円運動させるコマンドである。
本実施の形態でのフローチャートを図6に示す。
図6で、図5とステップ番号の同じものは同じ制御である。図5とは、ステップS11が異なる。今回は、タップが入るまでは動き続けるので、(9)の往復運動の場合は、片方の端点に到達すると、リファレンスの対象点をもう片方の端点に切り替えて、そちらに動くように、動作方向を切りえる。円運動の場合は、方向を常に動いていなければならず、短区間ごとに移動目標をおき、こまめに方向を切り替えながら、円運動を実現させる。
【0033】
以上のように、目標のポイントを随時切り替えることで、往復運動や円運動など、ユーザがペン軌跡で示した意図する方向に連続して動作できるようになった。 尚、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用しても良い。また、本発明はシステム或は装置にプログラムを供給することによって実施される場合にも適用できることは言うまでもない。この場合、本発明に係るプログラムを格納した記憶媒体が本発明を構成することになる。そして、該記憶媒体からそのプログラムをシステム或は装置に読み出すことによって、そのシステム或は装置が、予め定められた仕方で動作する。
【0034】
以上説明したように、本発明に係る実施の形態によれば、
1) ペン入力で表示を見ながら、その表示上に直接コマンドを与えられるので、操作方法が非常にわかりやすく、カメラを容易に操作できる。
2) さらには、遠隔地操作の場合は、相手から送られて来る画像を基に制御を行なうため、従来の遠隔地操作ができるカメラがあれば何も付加しなくても制御が可能になる。
3) さらには、円運動や往復運動など連続して、カメラを動かし続ける制御も可能になり、ユーザの意図を容易にカメラの動作に変換できるようになった。
【0035】
尚、撮像対象が動いた場合、上述の画像特徴に基づく調整方法では、移動対象点を探索できない場合がある。この場合は、予め、移動の最大値を設定しておき、探索に関する移動が、その最大値を越えた場合は、探索不能のメッセージを表示画面に表示し、ユーザからの次のコマンドを入力すればよい。
【0036】
【発明の効果】
以上説明したように本発明によれば、撮像装置の制御を撮像装置側の物理的パラメータを知ることなしに、容易かつ適正に行うことができる。
【図面の簡単な説明】
【図1】本発明に係る一実施の形態のカメラ制御部の機能ブロックを示す図である。
【図2】図1のカメラ制御部から制御されるカメラ部分のブロック図である。
【図3A】カメラ部とカメラ制御部が一体化した情報処理システムのブロック図である。
【図3B】カメラ部とカメラ制御部が一体化した情報処理システムの外形図である。
【図4】ジェスチャコマンドの一覧を示す図である。
【図5】第1の実施の形態のカメラ制御部の処理フローチャートである。
【図6】第2の実施の形態のカメラ制御部の処理フローチャートである。
【符号の説明】
1 表示制御
2 表示装置
3 ポインティングデバイス
4 ジェスチャコマンド解析手段
5 特徴抽出
6 リファレンスバッファ
7 現画像バッファ
8 比較手段
9 カメラ操作コマンド制御手段
10 カメラ部
11 外部I/O
12 カメラ制御
13,14 カメラ姿勢制御モータ
15 CPU
16 周辺I/O
17 メモリ
18 2次記憶装置
19 デジタイザ
20 音声制御
21 音声入出力
22 通信制御
23 モデム
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging method and an apparatus therefor.
[0002]
[Prior art]
Recently, remote video conferences and desktop conferences have been held via public lines and private lines. Some video cameras at this time are fixed-point cameras, and others perform operations such as zooming and panning from a remote location.
When operating the camera from a remote location, send the corresponding data by sending the command of up / down / left / right, zoom, focus while watching the projected image, or touching the icon corresponding to the command and selecting it .
[0003]
Furthermore, as disclosed in JP-A-6-205409, by pointing a graphic bar or the like provided at the bottom or right of the display screen, an angle corresponding to the graphic bar can be given as a command. The calculation at this time is obtained from the focal length and the angle of view received from the camera.
In addition, it has been proposed to perform panning and zooming on a document by specifying a center image or an area with a mouse.
[0004]
[Problems to be solved by the invention]
However, pointing on the screen and specifying the area is easy to specify with a mouse, etc., but there are also those that involve commands or those that are specified outside the screen or move for unknown images. I had to use other commands and key operations together.
[0005]
Conventionally, the angle of view has been calculated by receiving information such as the focal length from the other side, but it is difficult to automatically adjust the angle of view with a simple system without specific information from the remote camera. Met.
The present invention has been made in view of the above-described conventional example, and provides an imaging method and apparatus capable of easily and appropriately performing control of the imaging apparatus without knowing physical parameters on the imaging apparatus side. With the goal.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the imaging of the present invention has the following configuration. That is, a display step for displaying an image sent from the imaging device, and a command interpretation step for interpreting a command for instructing the operation of the imaging device based on a gesture input to the image displayed in the display step A feature amount extracting step of extracting a feature amount of a predetermined feature of an image portion designated based on a gesture input to the image, a feature amount extracted in the feature amount extracting step, and the command interpreting step And a control step of controlling the imaging device to change the displayed image based on the command interpreted in
The gestures that can be input as the gesture are:
A gesture for controlling the imaging device to change the displayed image with a portion designated based on the gesture as a new image center ;
The control step calculates a distance and an angle of view between the designated portion and the current image center based on the feature amount of the designated portion and the feature amount of the current image center, and calculates the calculated distance and image Based on the corner, a temporary movement command for moving the basic unit by a movement amount is calculated, the calculated temporary movement command is issued to the imaging device, and the center of the image after the imaging device is moved by the temporary movement command is calculated. It is determined whether or not the feature amount and the feature amount of the designated portion match, and if the feature amount at the center of the image and the feature amount of the designated portion do not match, it is determined that the feature amount is matched. Repeatedly issuing a correction command for correcting the temporary movement command based on the feature amount of the image center and the feature amount of the designated portion to the imaging device, and the feature amount of the image center after the move and the designated portion of If it is determined that the symptoms amount and match, issuing a movement of the stop command to the imaging apparatus.
[0007]
Another invention interprets a command for instructing the operation of the imaging device based on a display step for displaying an image sent from the imaging device and a gesture input to the image displayed in the display step. A command interpretation step, a feature amount extraction step of extracting a feature amount of a predetermined feature of an image portion designated based on a gesture input to the image, and a feature amount extracted in the feature amount extraction step And a control step for controlling the imaging device to change a displayed image based on the command interpreted in the command interpretation step, and the predetermined feature is designated based on the gesture And a positional information of a region represented by the hue in the image portion .
[0008]
DETAILED DESCRIPTION OF THE INVENTION
In accordance with a gesture input from the pen, a camera operation command is issued while comparing the original image and the current image so that the camera moves in the designated direction and size.
(First embodiment)
FIG. 1 shows a configuration diagram of a camera control apparatus according to an embodiment of the present invention.
[0009]
The display control unit 1 performs display control for displaying the contents of the application, the video of the built-in camera, and the video of a remote place sent via various communication means.
The display device 2 is composed of a CRT, liquid crystal, or the like, and 3 is a pen input means such as a digitizer that is integrated with the display device.
[0010]
Reference numeral 4 denotes gesture command analysis means for interpreting a command inputted from the shape, position, size, direction, etc. of the line locus inputted by the pen input means.
Reference numeral 5 denotes feature extraction means for extracting features from video received by communication, and reference numeral 6 denotes a reference buffer for storing the features of the target image when a gesture command is designated from the pen input means.
[0011]
A current image buffer 7 stores image characteristics of the current video.
8 is a comparison means for comparing the reference and the current image in accordance with the gesture command to obtain the degree of achievement of the command, and 9 is a camera that controls the camera according to the displayed screen according to the comparison result. Camera operation command control means for giving a command for feedback. Commands to the camera are sent to a built-in camera or a remote camera.
[0012]
FIG. 2 shows the configuration of the camera device.
Reference numeral 10 denotes a camera unit which receives an image passing through a lens by a light receiving element such as a CCD, and further sends it to the main body in a standard signal format such as NTSC or a digital signal.
Reference numeral 11 denotes an external I / O that receives a control command sent from the main body or a remote place.
[0013]
A camera control unit 12 interprets commands and controls each device.
Reference numeral 13 denotes a horizontal movement motor for panning the camera, and reference numeral 14 denotes a tilt movement motor for performing vertical movement.
Next, FIG. 3A shows an example of an internal block of an information processing system in which a camera unit and a camera control body are integrated.
[0014]
A 32- or 16-bit CPU 15 controls the entire device and executes applications.
Reference numeral 16 denotes a peripheral I / O controller for controlling CPU and peripheral I / O, that is, interrupt control, serial / parallel communication, RTC, and the like.
Reference numeral 17 denotes a RAM / ROM used for a control execution program and a work area.
[0015]
Reference numeral 18 denotes an HDD (hard disk) for storing applications and user data.
A digitizer 19 designates an area on the image shown on the display, and converts a pen locus used for menu selection and character input into coordinate values.
Reference numeral 1 denotes a display control controller for displaying a screen on the display device (liquid crystal) 2.
[0016]
Reference numeral 20 denotes an audio control controller that controls audio reproduction via the microphone / speaker 21.
A camera control unit 12 interprets a camera command instructed by the outside or the main body and controls the camera as described above.
A communication control unit 22 controls data exchange with a device such as a computer or a FAX from a telephone line via the modem 23. This may be communication via a LAN or the like. Further, the communication medium at that time may be wired or wireless, and the data may be in an analog format or a digital format.
[0017]
Next, the external appearance of the entire apparatus of FIG. 3A is shown in FIG. 3B.
FIG. 4 is a list of gesture commands that are actually used.
(1) is a command to move the camera so that the point becomes the center of the image, and the gesture is to tap the point once.
Note that a round dot in the operation column indicates the tap position, and a type arrow means that the round dot position should be noted. The type arrows are not actually entered.
[0018]
(2) is a command for moving the first pen-down point to the pen-up point, and the gesture is tapping and dragging.
The type arrows are for indicating tap points and are not actually input. (3) is a command for focusing on the point, and the gesture is a double tap.
[0019]
In addition, although two round dots are placed a little apart, this is for the sake of clarity in order to clearly show that there are two, and actually means that they are tapped twice at the same position. The type arrow means that the point position should be noted, and is not actually input.
(4) is a command for moving the camera in the direction of an arrow written with a pen and stopping the movement by inputting a tap. The gesture is an arrow and a tap.
[0020]
(5) is a command for zooming in to a region surrounded by a double arrow, and the gesture is a double arrow.
(6) is a command for zooming in, and zooming in on the size of the next large circle centered on the first small circle written, and the gesture is a small circle, an arrow, and a large circle.
[0021]
(7) is a command that zooms out around the first pointing point and stops at the tap, and the gesture is a pigtail and a tap.
(8) is a command that zooms out until the size of the next small circle is written, centering on the first large circle written, and the gesture is a large circle, an arrow, and a small circle.
[0022]
Since these command interpretation methods are extensions of gesture commands used in existing pen computers, they are not specifically described here.
Next, a description will be given with reference to the flowchart of camera control in FIG.
First, in step S1, pen input coordinates from the digitizer are read.
In step S2, it is interpreted which command is instructed how.
[0023]
In step S3, it is determined whether or not a command (4, 7 in FIG. 4) that is interrupted by a tap is currently being executed. If so, a stop command is issued in step S4 and the process ends.
Conversely, if not, the process proceeds to step S5.
In step S5, an initial setting calculation for obtaining a reference described later is performed.
[0024]
Here, the feature of the image at the designated target point is extracted.
Here, as features , for example, paying attention to a 3 × 3 block near the designated target point, for example, two representative hues are extracted from a plurality of pixels included in the block. Then, the relative position information in each block where each hue and each hue are located becomes the above-mentioned reference.
[0025]
Here, the hue is raised as a feature of the block, but the present invention is not limited to this, and it goes without saying that a feature that characterizes the color such as lightness and saturation may be combined.
Then, in order to actually achieve the gesture command, the first control command to be given to the camera is calculated. For example, in order to bring the tap point in (1) to the center of the image, the relationship between the tap point and the image center is obtained and a temporary movement command is issued.
[0026]
Here, the provisional movement command means a command to move by the movement amount of the basic unit because there is no information regarding the angle of view in the camera unit and the actual movement distance to the tap point. Basically, it is possible to finally move to a target point by issuing a command for moving by the movement amount in the basic unit a plurality of times.
That is, an accurate camera movement amount cannot be calculated unless the current camera status (distance to the target, lens angle of view) is known. In this embodiment, feedback is applied while viewing the target point of the image. .
[0027]
The temporary movement command is calculated based on, for example, the X and Y distances, the temporary angle of view, and the temporary target distance from the tap point to the image center.
Further, in the command (4), the direction of the arrow is calculated, and in the command (6, 8), the ratio of large and small circles is calculated.
In step S6, the calculated command is actually issued to the remote camera.
[0028]
In step S7, the target point of the current image is evaluated. In step S8, it is determined whether the image requested by the gesture command is obtained. If the image corresponds to the command, a stop command is issued in step S9 and the process ends. Otherwise, a correction command is issued in step S10. With the above hypothetical numbers, feedback will always be required because errors occur during movement. If the direction is correct but has not yet reached, no correction command is issued.
[0029]
As described above, since commands can be given directly on the display while viewing the display with pen input, the operation method is very easy to understand.
Furthermore, in the case of remote operation, since control is performed based on an image sent from the other party, if there is a conventional camera capable of remote operation, control can be performed without adding anything.
(Second Embodiment)
In the above-described embodiment, the operation of the camera finds a coincidence point or the operation is terminated by a pen tap.
[0030]
On the other hand, in recent years, when collaborating between remote locations, research on awareness systems to grasp each other's situation has been conducted. For example, when you actually visit the other party, you look around the room when you are away, like looking around with a camera when the other party is not in front of the display. To do.
[0031]
At this time, it cannot be found in one direction as in the above-described embodiment, and cannot be used for monitoring purposes.
In the present embodiment, the gesture can be further expanded and the movement can be continued until a tap stop such as a reciprocating movement or a circular movement is made.
Examples of gestures are shown in commands (9) and (10) in FIG.
[0032]
First, (9) is a command for reciprocating the range indicated by the trajectory at a constant speed, and the gesture is a horizontal eight character. (10) is for writing a double circle at the same place, and is a command for moving the camera circularly at a constant speed.
A flowchart in this embodiment is shown in FIG.
In FIG. 6, the same step numbers as those in FIG. 5 are the same control. Step S11 is different from FIG. This time, since it continues to move until the tap is entered, in the case of the reciprocating motion of (9), when it reaches one end point, the reference target point is switched to the other end point so that it moves there. the can exchange cut. In the case of circular motion, the direction must always be moving, and a movement target is set for each short section, and the circular motion is realized while frequently switching the direction.
[0033]
As described above, by switching the target point as needed, the user can continuously move in the intended direction indicated by the pen locus, such as a reciprocating motion or a circular motion. The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Needless to say, the present invention can also be applied to a case where the present invention is implemented by supplying a program to a system or apparatus. In this case, the storage medium storing the program according to the present invention constitutes the present invention. Then, by reading the program from the storage medium to the system or apparatus, the system or apparatus operates in a predetermined manner.
[0034]
As described above, according to the embodiment of the present invention,
1) While viewing the display with pen input, commands can be given directly on the display, so the operation method is very easy to understand and the camera can be operated easily.
2) Furthermore, in the case of remote operation, since control is performed based on the image sent from the other party, if there is a conventional camera capable of remote operation, control can be performed without adding anything. .
3) Furthermore, control that keeps the camera moving continuously, such as circular motion and reciprocating motion, is also possible, and the user's intention can be easily converted into camera motion.
[0035]
When the imaging target moves, the moving target point may not be searched by the adjustment method based on the image feature described above. In this case, the maximum value of movement is set in advance, and if the movement related to search exceeds the maximum value, a message indicating that search is impossible is displayed on the display screen, and the next command from the user is input. That's fine.
[0036]
【The invention's effect】
As described above, according to the present invention, the image pickup apparatus can be controlled easily and appropriately without knowing the physical parameters on the image pickup apparatus side.
[Brief description of the drawings]
FIG. 1 is a diagram showing functional blocks of a camera control unit according to an embodiment of the present invention.
FIG. 2 is a block diagram of a camera portion controlled from the camera control unit of FIG.
FIG. 3A is a block diagram of an information processing system in which a camera unit and a camera control unit are integrated.
FIG. 3B is an external view of an information processing system in which a camera unit and a camera control unit are integrated.
FIG. 4 is a diagram showing a list of gesture commands.
FIG. 5 is a process flowchart of a camera control unit according to the first embodiment.
FIG. 6 is a process flowchart of a camera control unit according to the second embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Display control 2 Display apparatus 3 Pointing device 4 Gesture command analysis means 5 Feature extraction 6 Reference buffer 7 Current image buffer 8 Comparison means 9 Camera operation command control means 10 Camera part 11 External I / O
12 Camera control 13, 14 Camera attitude control motor 15 CPU
16 Peripheral I / O
17 Memory 18 Secondary storage device 19 Digitizer 20 Voice control 21 Voice input / output 22 Communication control 23 Modem

Claims (8)

撮像装置から送られる画像を表示する表示工程と、
前記表示工程で表示された画像に対して入力されたジェスチャに基づいて、前記撮像装置の動作を指示するコマンドを解釈するコマンド解釈工程と、
前記画像に対して入力されたジェスチャに基づいて指定された画像部分の所定の特徴の特徴量を抽出する特徴量抽出工程と、
前記特徴量抽出工程で抽出された特徴量と前記コマンド解釈工程で解釈されたコマンドとに基づいて、表示されている画像を変更するように前記撮像装置を制御する制御工程とを有し、
前記ジェスチャとして入力可能なジェスチャは、
該ジェスチャに基づいて指定された部分を新たな画像中心として前記表示されている画像を変更するように前記撮像装置を制御するためのジェスチャであり、
前記制御工程は、前記指定部分の特徴量と現在の画像中心の特徴量とに基づいて前記指定部分と前記現在の画像中心との間の距離及び画角を算出し、前記算出した距離及び画角に基づき基本単位の移動量で移動させる仮移動コマンドを算出し、前記算出した仮移動コマンドを前記撮像装置に対して発行し、前記仮移動コマンドにより前記撮像装置が移動した後の画像中心の特徴量と前記指定部分の特徴量とが一致しているか否かを判定し、前記画像中心の特徴量と前記指定部分の特徴量とが一致していなければ一致すると判定されるまで、移動後の画像中心の特徴量と前記指定部分の特徴量とに基づき前記仮移動コマンドを補正した補正コマンドを前記撮像装置に対して発行することを繰り返し、移動後の画像中心の特徴量と前記指定部分の特徴量とが一致すると判定されたら、前記撮像装置に対して移動の停止コマンドを発行することを特徴とする撮像方法。
A display step of displaying an image sent from the imaging device;
A command interpreting step for interpreting a command for instructing an operation of the imaging device based on a gesture input with respect to the image displayed in the display step;
A feature amount extraction step of extracting a feature amount of a predetermined feature of an image portion designated based on a gesture input to the image;
A control step of controlling the imaging device so as to change a displayed image based on the feature amount extracted in the feature amount extraction step and the command interpreted in the command interpretation step;
The gestures that can be input as the gesture are:
A gesture for controlling the imaging device to change the displayed image with a portion designated based on the gesture as a new image center ;
The control step calculates a distance and an angle of view between the designated portion and the current image center based on the feature amount of the designated portion and the feature amount of the current image center, and calculates the calculated distance and image Based on the corner, a temporary movement command for moving the basic unit by a movement amount is calculated, the calculated temporary movement command is issued to the imaging device, and the image center after the imaging device is moved by the temporary movement command is calculated. It is determined whether or not the feature amount and the feature amount of the designated portion match, and if the feature amount at the center of the image and the feature amount of the designated portion do not match, it is determined that the feature amount matches. Repeatedly issuing a correction command for correcting the temporary movement command based on the feature amount of the image center and the feature amount of the designated portion to the imaging device, and the feature amount of the image center after the move and the designated portion of If it is determined that the symptoms amount and matches, imaging method and issues a movement of the stop command to the imaging apparatus.
撮像装置から送られる画像を表示する表示工程と、
前記表示工程で表示された画像に対して入力されたジェスチャに基づいて、前記撮像装置の動作を指示するコマンドを解釈するコマンド解釈工程と、
前記画像に対して入力されたジェスチャに基づいて指定された画像部分の所定の特徴の特徴量を抽出する特徴量抽出工程と、
前記特徴量抽出工程で抽出された特徴量と前記コマンド解釈工程で解釈されたコマンドとに基づいて、表示されている画像を変更するように前記撮像装置を制御する制御工程とを有し、
前記所定の特徴は、前記ジェスチャに基づいて指定された画像部分を代表する色相と、前記画像部分内でその色相で代表される領域の位置情報とを含むことを特徴とする撮像方法。
A display step of displaying an image sent from the imaging device;
A command interpretation step for interpreting a command for instructing an operation of the imaging device based on a gesture input with respect to the image displayed in the display step;
A feature amount extraction step of extracting a feature amount of a predetermined feature of an image portion designated based on a gesture input to the image;
A control step of controlling the imaging device to change a displayed image based on the feature amount extracted in the feature amount extraction step and the command interpreted in the command interpretation step;
The imaging method according to claim 1, wherein the predetermined feature includes a hue representing an image portion designated based on the gesture and position information of an area represented by the hue in the image portion.
前記所定の特徴は、前記ジェスチャに基づいて指定された画像部分を代表する色の種類と、前記画像部分内でその色の種類で代表される領域の位置情報とを含むことを特徴とする請求項1に記載の撮像方法。  The predetermined feature includes a color type representing an image portion designated based on the gesture and position information of an area represented by the color type in the image portion. Item 2. The imaging method according to Item 1. 前記色の種類は、色相であることを特徴とする請求項3に記載の撮像方法。  The imaging method according to claim 3, wherein the color type is a hue. 前記ジェスチャとして入力可能なジェスチャは、
該ジェスチャに基づいて指定された部分を新たな画像中心として前記表示されている画像を変更するように前記撮像装置を制御するためのジェスチャを含むことを特徴とする請求項2に記載の撮像方法。
The gestures that can be input as the gesture are:
The imaging method according to claim 2, further comprising a gesture for controlling the imaging apparatus so as to change the displayed image with a portion designated based on the gesture as a new image center. .
撮像装置から送られる画像を表示する表示手段と、
前記表示手段で表された画像に対して入力されたジェスチャに基づいて、前記撮像装置の動作を指示するコマンドを解釈するコマンド解釈手段と、
前記画像に対して入力されたジェスチャに基づいて指定された画像部分の所定の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段で抽出された特徴量と前記コマンド解釈手段で解釈されたコマンドとに基づいて、表示されている画像を変更するように前記撮像装置を制御する制御手段とを有し、
前記ジェスチャとして入力可能なジェスチャは、
該ジェスチャに基づいて指定された部分を新たな画像中心として前記表示されている画像を変更するように前記撮像装置を制御するためのジェスチャであり、
前記制御手段は、前記指定部分の特徴量と現在の画像中心の特徴量とに基づいて前記指定部分と前記現在の画像中心との間の距離及び画角を算出し、前記算出した距離及び画角に基づき基本単位の移動量で移動させる仮移動コマンドを算出し、前記算出した仮移動コマンドを前記撮像装置に対して発行し、前記仮移動コマンドにより前記撮像装置が移動した後の画像中心の特徴量と前記指定部分の特徴量とが一致しているか否かを判定し、前記画像中心の特徴量と前記指定部分の特徴量とが一致していなければ一致すると判定されるまで、移動後の画像中心の特徴量と前記指定部分の特徴量とに基づき前記仮移動コマンドを補正した補正コマンドを前記撮像装置に対して発行することを繰り返し、移動後の画像中心の特徴量と前記指定部分の特徴量とが一致すると判定されたら、前記撮像装置に対して移動の停止コマンドを発行することを特徴とする撮像制御装置。
Display means for displaying an image sent from the imaging device;
Command interpreting means for interpreting a command for instructing the operation of the imaging device based on a gesture input to the image represented by the display means;
Feature amount extraction means for extracting a predetermined feature amount of an image portion designated based on a gesture input to the image;
Control means for controlling the imaging device to change a displayed image based on the feature amount extracted by the feature amount extraction unit and the command interpreted by the command interpretation unit;
The gestures that can be input as the gesture are:
A gesture for controlling the imaging device to change the displayed image with a portion designated based on the gesture as a new image center ;
The control means calculates a distance and an angle of view between the designated portion and the current image center based on the feature amount of the designated portion and the feature amount of the current image center, and the calculated distance and image Based on the corner, a temporary movement command for moving the basic unit by a movement amount is calculated, the calculated temporary movement command is issued to the imaging device, and the image center after the imaging device is moved by the temporary movement command is calculated. It is determined whether or not the feature amount and the feature amount of the designated portion match, and if the feature amount at the center of the image and the feature amount of the designated portion do not match, it is determined that the feature amount matches. Repeatedly issuing a correction command for correcting the temporary movement command based on the feature amount of the image center and the feature amount of the designated portion to the imaging device, and the feature amount of the image center after the move and the designated portion of If it is determined that the symptoms amount and matches, the imaging control unit and issues a movement of the stop command to the imaging apparatus.
撮像装置から送られる画像を表示する表示手段と、
前記表示手段で表示された画像に対して入力されたジェスチャに基づいて、前記撮像装置の動作を指示するコマンドを解釈するコマンド解釈手段と、
前記画像に対して入力されたジェスチャに基づいて指定された画像部分の所定の特徴の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段で抽出された特徴量と前記コマンド解釈手段で解釈されたコマンドとに基づいて、表示されている画像を変更するように前記撮像装置を制御する制御手段とを有し、
前記所定の特徴は、前記ジェスチャに基づいて指定された画像部分を代表する色相と、前記画像部分内でその色相で代表される領域の位置情報とを含むことを特徴とする撮像制御装置。
Display means for displaying an image sent from the imaging device;
Command interpreting means for interpreting a command for instructing the operation of the imaging device based on a gesture input to the image displayed by the display means;
Feature quantity extraction means for extracting a feature quantity of a predetermined feature of an image portion designated based on a gesture input to the image;
Control means for controlling the imaging device to change a displayed image based on the feature amount extracted by the feature amount extraction unit and the command interpreted by the command interpretation unit;
The imaging control apparatus according to claim 1, wherein the predetermined feature includes a hue representing an image portion designated based on the gesture and position information of an area represented by the hue in the image portion.
前記撮像装置と前記撮像制御装置は、別装置であることを特徴とする請求項6または7に記載の撮像制御装置。  The imaging control apparatus according to claim 6, wherein the imaging apparatus and the imaging control apparatus are separate apparatuses.
JP00052696A 1996-01-08 1996-01-08 Imaging method and apparatus Expired - Fee Related JP3744995B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00052696A JP3744995B2 (en) 1996-01-08 1996-01-08 Imaging method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00052696A JP3744995B2 (en) 1996-01-08 1996-01-08 Imaging method and apparatus

Publications (2)

Publication Number Publication Date
JPH09186923A JPH09186923A (en) 1997-07-15
JP3744995B2 true JP3744995B2 (en) 2006-02-15

Family

ID=11476224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00052696A Expired - Fee Related JP3744995B2 (en) 1996-01-08 1996-01-08 Imaging method and apparatus

Country Status (1)

Country Link
JP (1) JP3744995B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3869897B2 (en) 1997-01-28 2007-01-17 キヤノン株式会社 Camera control system, video receiving apparatus, control method, and storage medium
JP4362728B2 (en) 2005-09-20 2009-11-11 ソニー株式会社 Control device, surveillance camera system, and control program thereof
JP4998522B2 (en) * 2009-06-26 2012-08-15 ソニー株式会社 Control device, camera system, and program
US9503682B2 (en) * 2014-12-17 2016-11-22 Fuji Xerox Co., Ltd. Systems and methods for conveying physical state of a remote device

Also Published As

Publication number Publication date
JPH09186923A (en) 1997-07-15

Similar Documents

Publication Publication Date Title
US9774788B2 (en) Providing area zoom functionality for a camera
KR100835956B1 (en) Method for processing image of mobile communication terminal
JP5361159B2 (en) Image display control device, control method therefor, program, and recording medium
CN110069204B (en) Graph processing method, device and equipment based on writing track and storage medium
US20110109581A1 (en) Digital image processing device and associated methodology of performing touch-based image scaling
KR101893275B1 (en) Method and apparatus for zooming in on selected area of preview interface
JP6071866B2 (en) Display control device, display device, imaging system, display control method, and program
JP2006087139A (en) User interface system for camera control
US20150304615A1 (en) Projection control apparatus and projection control method
US10979700B2 (en) Display control apparatus and control method
JP4377247B2 (en) Projector projection control system and projector projection control method
US8525890B2 (en) Projected-image based photographing apparatus control system
JP3744995B2 (en) Imaging method and apparatus
JP2013161247A (en) Operation device, display device, remote operation system, method of controlling operation device, control program, and recording medium
JP4107568B2 (en) Imaging device
JP7080711B2 (en) Electronic devices, control methods, programs, and storage media for electronic devices
US8040388B2 (en) Indicator method, system, and program for restoring annotated images
JP2017017446A (en) Information processing device and control method thereof, and program
KR101709529B1 (en) Apparatus and method for controlling image screen using portable terminal
CN112333395B (en) Focusing control method and device and electronic equipment
JP2022162409A (en) Electronic apparatus and control method thereof
JP4777486B2 (en) Camera control system and method, and storage medium storing operation processing program thereof
JP5241880B2 (en) Camera control system and method, and storage medium storing operation processing program thereof
JP2012083500A (en) Display control apparatus and display control method, program, and storage medium
JP2024021205A (en) image processing program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051116

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101202

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121202

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees