JPH08223466A - 画像表示装置 - Google Patents

画像表示装置

Info

Publication number
JPH08223466A
JPH08223466A JP7023675A JP2367595A JPH08223466A JP H08223466 A JPH08223466 A JP H08223466A JP 7023675 A JP7023675 A JP 7023675A JP 2367595 A JP2367595 A JP 2367595A JP H08223466 A JPH08223466 A JP H08223466A
Authority
JP
Japan
Prior art keywords
camera
image
area
displaying
whole
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7023675A
Other languages
English (en)
Other versions
JP3265893B2 (ja
Inventor
Kimiya Yamatari
公也 山足
Masayuki Tani
谷  正之
Harumi Uchigasaki
晴美 内ヶ崎
Masayasu Futagawa
正康 二川
Yukihiro Kawamata
幸博 川股
Atsuhiko Nishikawa
敦彦 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP02367595A priority Critical patent/JP3265893B2/ja
Priority to US08/598,699 priority patent/US6337709B1/en
Publication of JPH08223466A publication Critical patent/JPH08223466A/ja
Application granted granted Critical
Publication of JP3265893B2 publication Critical patent/JP3265893B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

(57)【要約】 【目的】カメラでどこまで見えるのか、また、現在カメ
ラで撮影している場所がどこであるのかをユーザに直感
的に理解させる。 【構成】あるカメラが写すことのできる領域を表示する
全体画像表示手段と,現在カメラがどこを見ているのか
を検知するカメラ位置検出手段と,前記カメラ位置検出
手段によって得たカメラ位置に基づいて全体画像上にカ
メラの表示している領域を明示するカメラ位置表示手段
を設けた。 【効果】本発明によれば、ユーザは、カメラの映像を見
る際に全体の画像の中でどこを見ているのかを知ること
ができるので、カメラをパンやズームする際に自分の見
ている位置を迷うことはない。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、プラント制御システム
や遠隔会議システムなどカメラ映像を表示するシステム
における画像表示装置ならびに画像表示方法に関する。
【0002】
【従来の技術】プラントシステムや遠隔会議システムで
は、カメラで映した遠隔の現場や会議場を表示すること
により、遠隔の現場や会議場の様子を把握している。こ
のようなシステムでは、カメラは固定カメラだけではな
い。例えば、プラント監視システムの場合には、パンや
ズームをするカメラが通常置かれ、オペレータは、カメ
ラをパンしてカメラで一度に見えない領域を監視した
り、ズームしてよく見得ない部分を拡大して詳細に点検
したりしている。
【0003】上記のようにパンやズームといった動かす
ことのできるカメラを利用しているシステムでは、カメ
ラが映している映像をそのままテレビ画面や計算機画面
に表示している。このため、カメラのパンやズームをし
てしまうと常に表示が更新されてしまい、どこを見てい
るのか分からなくなってしまっていた。
【0004】
【発明が解決しようとする課題】カメラがパンやズーム
をするカメラの場合、カメラ映像で現場を監視する際に
現在カメラで監視対象のどこを見ているのか分からなく
なるという問題があった。また、監視対象の全体中の特
定の部分をカメラで撮影したい場合にも、当該特定の部
分をカメラに指定することが困難であるという問題点が
あった。
【0005】本発明の目的は、上記のカメラの表示方法
の問題を解決し、ユーザの使い勝手の良いカメラ映像を
表示する画像表示装置を提供することを目的としてい
る。
【0006】
【課題を解決するための手段】上記目的を達成するため
に、本発明の特徴は、カメラの映すことのできる全体の
領域を表示画面上に表示する全体画像表示手段,カメラ
の状態(カメラの方向,ズーム率)を検知し、カメラの
全体画面上での位置を検出するカメラ位置検出手段,前
記カメラ位置検出手段で得た現在のカメラの映している
領域に目印を表示するカメラ領域表示手段,全体画像を
所定のタイミングで更新する全体画像更新手段を設けた
ことにある。
【0007】また、他の本発明の特徴は、カメラの映し
ている領域より広い領域(全体画像)を表示する全体画像
表示手段,表示手段で表示している全体画像上で領域を
指定する領域指定手段,領域指定手段によって指定され
た領域をカメラで撮影するように前記カメラを制御する
カメラ制御手段を有することにある。
【0008】
【作用】全体画像取り込み手段は、カメラの映すことの
できる領域の全体の画像を取り込み、それを表示画面上
に表示する。カメラ位置検出手段は、カメラのパンやズ
ームの状態を検知し、そのカメラの状態から現在カメラ
が映している画像が全体画像のどの部分に相当するかを
推定する。カメラ領域表示手段は、前記カメラ位置検出
手段で検出した全体画像上での位置に目印をつける。全
体画像更新手段は、経時的に変化する可能性のある全体
画像を所定のタイミングで更新する。これらによって、
全体画像上に常にカメラがどこを映しているのかを明示
することができるため、ユーザは今どこを見ているのか
で迷うことはない。
【0009】また、領域指定手段は、表示手段で表示し
ている全体画像上でカメラで撮影したい領域を指定す
る。カメラ制御手段は、領域指定手段によって指定され
た領域をカメラで撮影するように、カメラのパンやズー
ムの状態を制御する。これらによって、ユーザは全体画
像中の特定の部分をカメラで撮影したい場合にも、当該
特定部分を容易に把握しつつ迅速的確にカメラを制御で
きる。
【0010】
【実施例】本実施例は、パン・ズームを行うことのでき
るカメラを制御する際に、カメラの撮ることのできる全
体画像を予め記憶しておき、その全体画像上に、現在カ
メラが映している領域を明示することにより、現在、カ
メラがどこを見ているのかを明示するシステムである。
本システムを用いることにより、ユーザは、現在見てい
るカメラ映像の領域を即座に知ることができ、カメラの
制御を簡単に行うことができる。
【0011】本実施例のシステム構成を図1を用いて説
明する。本実施例では、火力プラントの監視システムを
例にとっており、まず、現場の状況を映すカメラ10
1,カメラ101の撮影方向,レンズの画角を制御し
て、パンやズームを行う雲台102が、運転員のいる制御
室から離れた現場に設置されている。現場のカメラ10
1からユーザである運転員のいる制御室まで、雲台10
2の制御線ならびにカメラ101からの映像線が設置さ
れている。制御室内には運転員用のコンソールがあり、
そのコンソールに前記の制御線ならびに映像線は接続さ
れている。コンソールは、複数の部品から構成されてい
る。制御部106は、コンソール全体の動きを制御す
る。入力部108は、運転員の意志をコンソールに伝え
る。サンプリング部104は、カメラ101から映像線
を介してカメラ101の映像をコンソール内に取り込
む。全体画像記憶部107は、カメラ101が見ること
のできる全領域の画像を予め記憶する。カメラ制御部1
03は、雲台102から延びる制御線を介して、雲台1
02のパンやズームの状態を検知したり、雲台102へ
パンやズームといった命令を発行し、雲台102を制御
したりする。カメラ位置検出部109は、カメラ制御部
103が検知している雲台102のパンやズームの情報
から、全体画像の中における現在のカメラ101の映し
ている領域を推定したり、逆に全体画像上の領域からカ
メラ101のパン,ズーム量を計算する。表示部105
は、全体画像記憶部107からの全体画像とサンプリン
グ部104で取り込んだカメラ画像を表示画面110に
表示し、さらに、カメラ位置検出部109で計算したカメ
ラ101の表示領域801を全体画像上に表示する。
【0012】上記のシステムを使って、全体画面の上に
カメラ画像の表示領域801を明示する概略フローを図
2を用いて説明する。
【0013】(ステップ1)201で制御部106は、
全体画像を取り込む。制御部106は、全体画像を表示
する前に全体画像を取り込み、全体画像記憶部107に
記憶する。次に、制御部106は、入力部108によっ
て表示終了通知が入力されるまで、(ステップ2)20
2から(ステップ6)206までの処理を繰り返し行
う。
【0014】制御部106は、(ステップ2)202で
カメラ画像をサンプリングする。本実施例では、カメラ
101の入力は通常のカメラ信号であるNTSC信号で
カメラ101から映像線を介してサンプリング部104
に入力される。サンプリング部104は、このカメラ画
像を横縦、640*480ドット,1ドットRGB各8
ビットの画像でサンプリングする。もちろんサンプリン
グする際の画素数や一画素のビット数は他の値でもかま
わない。
【0015】(ステップ3)203で制御部106は、
カメラ制御部103から現在のカメラ101の撮影方
向、カメラ101の画角の情報を受け取る。カメラ制御
部103は、制御部106からカメラ101の情報の取得
要求がある場合には、雲台102に対し、現在の状態を確
認し、その値を制御部106に返す。返す情報は、カメ
ラ101の撮影方向と画角である。詳細は後に述べる。
本システムでは、雲台102は、カメラ101の撮影方
向や画角といった情報を常に蓄えており、それをカメラ
制御部103の問い合わせに応じて制御線を通じて、カ
メラ制御部103に返す。
【0016】(ステップ4)204では、制御部106
は、前記ステップで得たカメラ情報を元に、カメラ表示
位置の計算をカメラ位置検出部109に行わせ、全体画
像上のどこを表示しているかを知る。
【0017】(ステップ5)205では、制御部106
は、所定の位置に前記(ステップ2)202でサンプリン
グした画像を表示部105を用いて表示画面110に表
示する。このとき、表示領域801の大きさに合わせ
て、拡大縮小して表示する。
【0018】(ステップ6)206では、制御部106
は、所定の位置に前記ステップ1201で記憶した全体
画像を表示部105を用いて表示画面110に表示す
る。このとき、全体画像表示領域の大きさに合わせて拡
大・縮小して表示する。
【0019】(ステップ7)207では、制御部106
は、前記ステップ4 204で計算したカメラ画像の全
体領域に対する領域を全体画像上に表示部105を用い
て表示画面110に表示する。
【0020】次に上記概略フローの個々のステップにつ
いて説明する。
【0021】全体画像の取り込みは、以下のように行わ
れる。
【0022】全体画像の大きさを決めるため、まず本シ
ステムの雲台102の仕様を図3を用いて説明する。本
システムの雲台102は、画角の値によってズーム率を
変更することができる。本システムでは、最もカメラ1
01をズームダウンした時の水平,垂直最大画角はそれ
ぞれ30度、もっともズームインしたときの水平,垂直
最大画角は5度である。一般にカメラシステムでは、垂
直・水平の画角はレンズ長さで決まるため、垂直画角と
水平画角は一定の関係になっている。本システムでは、
常に同じ値であるとする。ただ、記述上は、一般性を持
たせるため、垂直,水平の画角は独立項として記述す
る。パンの方向は、図3のように真正面が0度で水平方
向は左右それぞれ、45度の角度でパンすることができ
る。符号は、左方向をマイナスで表す。垂直方向も水平
方向と同じく上下45度の角度で降ることができる。上
方向がプラス、下方向がマイナスである。
【0023】上記のようにシステムのカメラ101,雲
台102の最大値が決まれば、カメラ101と雲台10
2を用いた場合のカメラ101で撮影できる領域(全体
領域)を決定することができる。例えば、水平方向は±
60度の範囲で撮影することができる。これは、最大画
角30度でパンの最大左方向−45度にカメラ101を
向けた場合、図3のように画角の半分15度分だけ越え
た領域をカメラ101は映すからである。従って、水平
方向±60度,垂直方向±60度がカメラ101の映す
ことのできる領域301である。
【0024】全体画像の取り込みは、複数回の撮影を行
うことによって行う。上記のように全体画像301は、
水平・垂直双方±60度の範囲の画像になる。今、カメ
ラ101の最大画角は、30度であるから一度の撮影で
全体画像のすべての領域を撮影することはできない。そ
こで、図4のように全体画像301を複数回の撮影で取
り込む。
【0025】一回で撮影できる領域は画角30度の範囲
であるから全体領域301を画角30度で撮影できる範
囲に分割する。すると、図4のように垂直水平それぞれ
4分割合計16分割される。そこで、16回の撮影を行
うことによって、全体画像301を取り込む。
【0026】図5に16分割して映像を取り込む際の処
理フローを示す。まず、制御部106は、初期設定とし
て、水平・垂直方向角を−45度、画角を30度にする
(ステップ51)501。そして、水平,垂直方向角に
30度ずつ足しながら、方向角を決定する(ステップ5
2)502,(53)503,(57)507,(58)
508。制御部106は、決定した方向角と画角の情報
をカメラ制御部103に送信し、カメラ制御部103
は、雲台102に方向角と画角を設定する。雲台102
は、設定された画角,方向角の値になるように雲台10
2を動かす(ステップ54)504。雲台102は、設
定した方向角・画角になったところでカメラ制御部10
3に方向角・画角が正確に設定されたことを返す。カメ
ラ制御部103は、雲台102から設定終了の合図が来
たところで、制御部106に設定終了の合図を送る。制
御部106は、カメラ制御部103からの合図が来たと
ころで、サンプリング部104に対し、画像を一枚サン
プリングする(ステップ55)505。このとき、サン
プリング部104は、カメラ101からの映像を640
*480画素,RGB角8ビットでサンプリングする。
制御部106は、全体画像記憶部にサンプリングした画
像,カメラ101の方向角,画角と対にして記憶する
(ステップ56)506。上記のサンプリング処理を1
6分割領域すべてについて行う。16分割領域すべての
画像を取り込むと、制御部106は、取り込んだ16枚
の画像を、各画像の方向を参照して全体領域を映してい
る640*4,480 *4ドットの大きさの画像にまと
めて、全体画像として全体画像記憶部107に記憶する
(ステップ59)509。
【0027】続いて、カメラ画像のサンプリングについ
て説明する。本システムでは、カメラ画像はNTSCの
映像信号を映像線を通じてサンプリング部104に映像
を入力している。サンプリング部104は、入力される
映像信号に同期してサンプリングする。通常、映像は、
インタレース方式で入力されるため、1枚の映像をサン
プリングするために2フィールド,2回のサンプリング
を行う。まず、最初のサンプリングを行い、サンプリン
グ部104内の映像記憶領域に記憶する。このとき、映
像信号の振幅をRGB各256階調で量子化し、水平方
向320ドット,垂直方向240ドットでサンプリング
する。次に2フィールド目のサンプリングを行う。最初
のフィールドのサンプリング画像の間に2フィールド目
のサンプリング画像を入れ込み、640*480ドッ
ト,RGB各8ビットの画像を得る。なお、本サンプリ
ング方式の具体的な例は、Silicon Graphics社Indigo V
ideoMannualの中に詳細に記されている。
【0028】次にカメラ情報の取得について説明する。
制御部106は、カメラ制御部103から現在のカメラ
101の情報(画角,方向角)獲得する。本システムの
雲台102は、カメラ101の水平・垂直方向角,画角
を内部に常に記憶・管理している。制御部106がカメ
ラ制御部103に対し、カメラ101の情報を出すよう
に依頼すると、カメラ制御部103は、制御線を介して
雲台102にカメラ101の情報を出力するように依頼
する。雲台102は、内部に記憶している、現在の画
角,水平・垂直方向角の情報をカメラ制御部103に返
す。さらに、カメラ制御部103は、雲台102からの
現在の方向角と画角の値を制御部106に返す。以上に
よって、制御部106は、現在のカメラ101の画角,
方向角の値を知る。
【0029】次に現在のカメラ画像の位置の計算につい
て説明する。上記のカメラ101の情報から、全体画像
上でのカメラ位置を計算する。制御部106は、カメラ
制御部103から得たカメラ情報をカメラ位置検出部1
09に与え、全体画像上でのカメラ位置を計算させる。
カメラ位置検出部109は以下のアルゴリズムによって
カメラ位置を計算する。ここで、カメラ制御部103か
ら得られたカメラ情報は、水平方向角v,垂直方向角
h,画角aであるとする。
【0030】図6は、全体画像と現在のカメラ画像との
関係を角度の座標系で示したものである。カメラ101
の映像は、角度の座標系で図のように(v,h)の点を
中心に垂直・水平方向にそれぞれ(ax,ay)の幅を
持った矩形で表わせる。この矩形の左下の座標は(h−
ax/2,v−ay/2)、左上の座標は、(h+ax
/2,v+ay/2)となる。
【0031】図7は、上記の角度の座標系の絵を画素の
座標系で表したものである。この座標系は、画素の左下
を原点とし、垂直,水平方向はドットを単位としてい
る。最終的には、この座標系での表示領域801の座標
を求める。
【0032】角度の座標系と画素の座標系とはレンズの
特性等で端延び等が起こるため、正確には非線形のレン
ズの特性式を用いる必要がある。しかし、本実施例で
は、概略的な位置を示すことを第1と考え、線形関係を
仮定した。したがって、本実施例の場合、角度の座標系
で(V,H)の座標は、以下の関数によって画素の座標
(X,Y)に射影される。
【0033】X=(V+60)/120*2560 Y=(H+60)/120*1920 よって、現在カメラ101が映している矩形は、次のよ
うな矩形(x0,y0)−(x1,y1)に射影され
る。
【0034】 x0=(h−ax/2+60)/120*2560 y0=(v−ay/2+60)/120*1920 x1=(h+ax/2+60)/120*2560 y1=(v+ay/2+60)/120*1920 カメラ位置検出部109は、計算した上記の値を制御部
106に返す。
【0035】次に、カメラが写す領域画像を表示する際
の処理を図8の表示画面110を例にとって説明する。
この例では、カメラ101の画像を座標(CX,CY)
の位置,幅CWドット高さCHドットで表示する。制御
部106は、サンプリング部104でサンプリングした
640*480ドットの映像を幅CW,高さCHドット
の大きさに拡大・縮小する。拡大率は、幅CW/64
0,高さCH/480である。制御部106は、CW,
CHドットにしたカメラ画像を表示部105に対し、C
X,CYの位置に表示するように指示する。表示部10
5は、表示画面110上の(CX,CY)の位置に拡大
・縮小した画像を表示する。
【0036】また、ここでは、デジタルサンプリングし
た映像を表示する場合を説明したが、カメラ画像の表示
方法として、スーパインポーザを用いて計算機画像とカ
メラ101からのNTSC信号とを合成しても良い。
【0037】次に、全体画像を表示する際の処理を図8
の表示画面110を例にとって説明する。この例では、
全体画像を座標(GX,GY)の位置,幅GWドット高
さGHドットで表示する。制御部106は、サンプリン
グ部104でサンプリングした2560*1920ドッ
トの映像を幅GW,高さGHドットの大きさに拡大・縮
小する。拡大率は、幅GW/2560,高さGH/19
20である。制御部106は、GW,GHドットにした
カメラ画像を表示部105に対し、GX,GYの位置に
表示するように指示する。表示部105は、表示画面1
10上の(GX,GY)の位置に拡大・縮小した画像8
02を表示する。
【0038】次に、現在のカメラ画像領域の全体画像へ
の矩形表示について説明する。図8の表示画像110
中、現在のカメラ101の位置を示す矩形801を全体
画像802上に表示する。カメラ位置検出部109で計
算した結果のカメラ位置(x0,y0)−(x1,y
1)の矩形を制御部106は、実際に全体画像802上に
表示するため、表示画面110上の座標(X0,Y0)
−(X1,Y1)に変換する。
【0039】全体画像802は、前に述べたように拡大
率 幅GW/2560,高さGH/1920で拡大・縮
小されているので、カメラ101の表示領域801の値
も同じ拡大率で拡大する。さらにカメラ101の全体の
表示位置が(GX,GY)であるので、この分平行移動
する必要がある。以上のことを考えると以下のように計
算される。
【0040】(X0,Y0)−(X1,Y1)は次のよ
うに計算される。
【0041】X0=x0*GW/2560+GX,Y0
=y0*GH/1920+GY X1=x1*GW/2560+GX,Y1=y1*GH
/1920+GY 制御部106は、計算した座標で図8のように矩形80
1を全体画像802上に表示部105を介して表示す
る。
【0042】以上が、図2に示した処理フローの詳細内
容の説明である。
【0043】ここまでは、カメラ101の表示領域80
1を全体画面上に表示することを説明したが、ここから
は、全体画像上の表示領域801をユーザが直接ピック
し、その表示領域801を移動,拡大・縮小することに
より、現在映しているカメラ101を全体画像上で指定
した領域を映すように制御する方法について説明する。
【0044】この制御方法の概略的な処理の流れを図9
を用いて説明する。表示画面110には、前述の方式に
より全体画像802、現在カメラが撮影している領域の
画像803、さらに全体画像上に現在カメラ101が撮
影している領域を示す領域表示801がされているとす
る。
【0045】(ステップ91)901で、入力部108
を用いて全体画像802上の表示領域801を選択し、
その表示領域801を移動,拡大・縮小することによ
り、次にカメラ101で撮影したい領域を指定する。こ
の指定した領域は制御部106に保持される。(ステッ
プ92)902で、制御部106は、前ステップで指定
した撮影したい領域の全体画像802上での矩形領域8
01の座標から、カメラ位置検出部109を用いて表示
領域801を撮影するためのカメラ情報(パン角,画
角)を計算し、決定する。(ステップ93)903で
は、前ステップで計算したカメラ情報を制御部106が
カメラ制御部103に設定し、カメラ101を制御す
る。
【0046】図10を用いて、実際の全体画面802上
での領域801の入力方法について説明する。入力部1
08はマウス1001とキーボード1002で構成さ
れ、図10上の表示画面110に表示されているポイン
タ1003の左上(矢印の先端)が現在のマウス1001
の入力位置を示す。ここではマウス1001による入力
方法について示す。
【0047】マウス1001には、入力ボタンが3つ
(左ボタン1010,中ボタン1011,右ボタン101
2)がついている。この入力ボタンをユーザが押した
り、離したりして入力を行うことができる。マウス10
01から制御部106に対し、ボタンの状態変化(ボタ
ンアップ,ボタンプッシュ),マウスの移動,押された
ボタンの種類(左ボタン1010,中ボタン1011,
右ボタン1012),移動量(Δx,Δy)が入力され
る。制御部106は、現在のマウス1001の位置を記
憶しており、マウス1001からの移動量(Δx,Δ
y)を現在の位置に加算することにより、マウス100
1の位置を決める。マウス1001の最初の位置は
(0,0)の点。制御部106は、計算したマウス10
01の位置にポインタ1003の先端が表示されるよう
に表示部105にポインタ1003の表示を制御する。
さらに、制御部106は、入力状態の変化,入力ボタン
の種類に合わせてシステムの動作を決める。
【0048】マウス1001による表示矩形の選択を行
う。ユーザは、マウス1001でポインタ1003の先
端を全体画面上のカメラ表示領域801の枠線上に置
き、左ボタン1010をアップすることにより、表示領
域801を選択できる。制御部106は、マウス100
1から左ボタン1010がアップされた、という入力を
受けると、全体画面上に表示している表示領域801の
座標(X0,Y0)−(X1,Y1)を参照し、その枠
線上にあるかどうかを検査する。制御部106は、マウ
ス1001の左ボタン1010が枠線上であった場合に
は、表示領域801が選択されたと解釈する。枠線上で
無かった場合には、なにもしない。制御部106は、枠
線が選択されると、ユーザに対し表示領域801が選択
されたことを示すため、図10に示すように表示領域8
01の枠線の各隅にコントロールポイントを表示する。
また、表示領域801が今後変更される訳であるから、
現在のカメラ情報から表示領域801を表示することを
一時的に停止する。この機能の再開は、(ステップ9
3)903でカメラ情報を設定した後行う。
【0049】ユーザは、コントロールポイントや枠線を
再度マウス1001で選択し、マウス1001を動かす
ことにより、表示領域801を移動・拡大することによ
り、カメラ101で撮影する範囲を指定する。マウス1
001で枠線を選択して、マウス1001を移動させる
と表示領域801を移動することができ、コントロール
ポイントをマウス1001で指定し、動かすと表示領域
801を拡大することができる。
【0050】図11(1)を用いて表示領域801の移
動を行う場合について説明する。マウス1001で図1
1(1)のように選択中の表示領域801のコントロー
ルポイント以外の枠線上で左ボタン1010をプッシュ
すると、制御部106は、移動であると判断する。ユー
ザは、左ボタン1010を押したままでマウス1001を移
動すると、その移動量と同じ量だけ制御部106は、表
示領域801を移動させる。これは、マウス1001か
らの移動量を矩形領域(X0,Y0)−(X1,Y1)
に加算することにより行う。すると、図11(1)のよ
うにポインタ1003にくっ付いて表示領域801が移
動するように見える。ユーザが左ボタン1010を押す
のを止めると、マウス1001から左ボタンアップの入
力が入り、制御部106は、移動を止める。
【0051】図11(2)を用いて表示領域801の拡
大・縮小を行う場合について説明する。マウス1001
で図11(2)のように選択中の表示領域801のコン
トロールポイント上で左ボタン1010をプッシュする
と、制御部106は、拡大あるいは縮小であると判断す
る。ユーザは、左ボタン1010を押したままでマウス
1001を移動すると、その移動量と同じ量だけ制御部
106は、選択したコントロールポイントを移動させ、
表示領域801を拡大あるいは縮小する。これは、マウ
ス1001からの移動量を矩形領域(X0,Y0)−
(X1,Y1)の各コントロールポイントに対応した座
標に加算することにより行う。図11に拡大の例を示す
と、このようにポインタ1003にくっ付いて表示領域
801が拡大するように見える。ユーザが左ボタン10
10を押すのを止めると、マウス1001から左ボタン
アップの入力が入り、制御部106は、拡大あるいは縮
小を止める。
【0052】所望の位置,大きさに表示領域801を設
定したのち、右ボタン1012をプッシュ・アップして
位置,大きさを確定する。ユーザは、前記の方法でマウ
ス1001で表示領域801を移動,拡大・縮小し、表
示領域801上で右ボタン1012を押して離すことに
より、カメラ101で撮影する領域を決定する。ユーザ
が選択表示領域801内で右ボタン1012を選択する
と、制御部106は、表示領域801の編集が終了した
と認識する。すると、表示していたコントロールポイン
トを消し、選択していた表示領域801が非選択になっ
たことを知らせる。
【0053】上記の説明では、表示されている表示領域
801をユーザが指し示し、その領域を移動,拡大・縮
小することにより、カメラの撮影方向を指定している
が、上記以外にもポインタ1003を用いて全体画面上
で領域を新たに指定することにより、次にカメラで映す
領域を指定することも可能である。
【0054】この例を図12を用いて説明する。マウス
1001の中ボタン1011を全体画面上でユーザが押
すと、その入力を受けて制御部106は、マウス100
1の座標値と中ボタン1011が押されたという情報か
ら、全体画面上での座標上で領域指定の始点(X2,Y
2)1801が設定された、と認識する。ユーザがマウ
ス1001の中ボタン1011を押したままドラッグ
し、カメラ101で映したい領域の終了点(X3,Y
3)1802を指定する。マウス1001からは、マウ
ス1001の座標と移動、という情報が制御部106に
入力される。制御部106は、マウス1001の中ボタ
ン1011を押した場所1801からドラッグした座標
1802までを対角線とする矩形をラバーバンド180
3で表示する。領域が指定できると、ユーザはマウス1
001の中ボタン1011をアップする。マウス100
1からの座標と中ボタン1011がアップされた情報が
入力されることにより、制御部106は、次にカメラで
撮影する新たな領域の指定が終了したと認識する。さら
に、マウス1001の右ボタン1012を押して離すこ
とにより、ユーザが指定した新たな領域を確定したと制
御部106は判断する。次に、入力された領域801の
情報に基づくカメラ情報の決定について説明する。制御
部106は、全体画像802上でユーザが入力部108
で設定した次にカメラ101で撮影したい領域の表示画
面110上での座標(X2,Y2)−(X3,Y3)か
ら、カメラ位置検出部109を用いて、実際にカメラ1
01の雲台102を動かすためのカメラ情報(パン角,
画角)を計算する。カメラ位置検出部109は、前述の
カメラ情報から表示画面110上での座標を計算した方
式の逆演算を用いて計算する。
【0055】画面装置上での座標(x,y)がある場
合、その点を全体画面の画素座標系の点(p,q)に変
換する。これは、前の拡大率と全体画面n表示位置(G
X,GY)を参照して、以下のように変換される。
【0056】p=(x−GX)/(GW/2560) q=(y−GY)/(GH/1920) 次に、画素座標系の点(p,q)を角度座標系の点
(v,h)に変換する v=p/2560*120−60 h=q/1920*120−60 カメラ位置検出部109は、全体画面上での2点(X
3,Y3),(X4,Y4)それぞれを上記の2つの変換
式で変換した点(V3,H3),(V4,H4)を計算す
る。カメラ位置検出部109は、この角度座標系の値を
使って、カメラ101を制御するパン角(Px,Py),
画角(ax,ay)を決定する。
【0057】Px(水平方向角)=(V3+V4)/2 Py(垂直方向角)=(H3+H4)/2 ax(水平画角)=(V4−V3) ay(垂直画角)=(H4−H3) カメラ位置検出部109は、計算したカメラ情報を制御
部106に返す。
【0058】続いて、カメラ情報の設定について説明す
る。制御部106は、計算したパン角(Px,Py),
画角(ax,ay)のカメラ情報をカメラ制御部103
に与え、カメラ制御部103に雲台102を制御するよ
うに依頼する。カメラ制御部103は、制御線を介して
制御部106から設定されたカメラ情報を雲台102に
設定する。雲台102は、カメラ制御部103から指定
されたカメラ情報に従って雲台102を動かす。前述の
ように雲台102は設定されたパン方向,画角になる
と、カメラ設定終了報告を制御線を介してカメラ制御部
103に行う。カメラ制御部103は、雲台102から
カメラ設定終了報告を受け取ると、制御部106に対し
てカメラの設定終了報告を行う。この報告機能により、
コンソールとカメラ101とは同期をとりながら動作を
行うことができる。
【0059】なお、カメラ101の撮影可能な範囲は、
カメラ101のハードウェアに依存しており、ユーザが
指定した領域のすべてをカメラ101で撮影することは
できない。たとえば、本システムのカメラ101の場
合、最大の画角は30度,最小の画角は5度である。こ
のため、画角が30度を越えるような領域指定を行って
もカメラ101は30度を越える領域を撮影することは
できない。そのため、ユーザがマウス1001で領域を
指定する際に、撮影できない領域をユーザが指定しよう
とした場合には、警告を表示したり、領域が撮影可能範
囲を超える場合には、可能な範囲以上には拡大しないよ
うに制御することも行うようにする。
【0060】次に、ここでは、ユーザ指定によって全体
画像を取り込む実施例について説明する。
【0061】本実施例では、ユーザが全体画像を記憶す
ることを指定すると、そのタイミングで全体画像を取り
込む。システムの立ち上げ時にしか全体画像を取り込ま
ないと、時間経過にともなって、実際の現場の状況と記
憶している画像とがかなり異なってくる場合もある。そ
こで本実施例では、ユーザが明示的に全体画像を撮るこ
とを指定することにより、最新の現場の映像を記憶す
る。
【0062】本実施例の処理フローを図13に示す。こ
の処理フローでは、図2のフローに(ステップ131)
1301を追加している。この(ステップ131)13
01では、ユーザが全体画像の表示領域802上でマウ
ス1001の中ボタン1011を押して離すと、システム
は、図2のフローと同じ全体画像取り込みを行い、全体
画像記憶部107に記憶している全体画像を更新する。
その方法は前述した例と同じである。
【0063】本システムを用いることにより、システム
の変更やシステムの状態の変化に応じて全体画像を更新
することができる。
【0064】また、ユーザが領域画像を見なくなった時
に全体画像取り込むことも可能である。
【0065】プラントシステムでは、オペレータの画面
に常時カメラ画像を表示しているわけではない。また、
プラントには複数のカメラ101があり、1つのカメラ
101だけではなく複数のカメラを切り替えて表示して、
監視業務を行っている。本実施例では、ユーザがカメラ
画像を見なくなったところで全体画像を撮影し、自動的
に全体画像を更新する例である。
【0066】本実施例の処理フローを図14に示す。こ
の処理フローでは、図2のフローに(ステップ141)
1401と(142)1402を追加している。ユーザ
が入力部108を用いてカメラ101の表示終了通知を
発生すると、制御部106は、(ステップ2)202−
(ステップ7)207の全体画面表示ならびにカメラ画
像803の表示を終了する。
【0067】表示が終了すると、制御部106は、(ス
テップ141)1401,(142)1402でそのカメ
ラ101の全体画像を更新する。(ステップ141)14
01で(ステップ1)201と同じ方法でカメラ101
で映せる範囲の画像を取り込む。ただ、ユーザがカメラ
画像の表示開始要求をした場合には、ユーザの見たいと
ころをカメラ101で映す必要がある。このため、(ス
テップ141)1401では、画像の取り込みの最中定
期的に、ユーザからの表示開始要求が入力装置から発生
しているかどうかを確認しながら画像の取り込みを行
う。もし、開始要求があった場合には、(ステップ14
2)1402で全体画像の取り込みを止め、一旦処理を
終了した後、表示を再開する。(ステップ141)14
01で全体画像を取り込んだ後、(ステップ143)1
403で(ステップ141)1401で取り込んだ全体
画像で全体画像記憶部107に記憶している全体画面を
書き換える。こうすることにより、ユーザが途中で再開
要求をした場合には、(ステップ142)1402で全
体画面を破棄し、最後まで全体画像を取り込むことがで
きた場合には、(ステップ143)1403で全体画像
記憶部107に登録する。
【0068】本システムを用いることにより、自動的に
全体画像を更新することができる。次に、全体画像とカ
メラ領域画像とを切り替えて表示する実施例について説
明する。
【0069】これまでに説明した例では、全体画像と現
在映しているカメラ101の画像の2つの画像を同時に
表示していたが、本実施例では、全体画像は基本的に
は、カメラ101を制御するときと、カメラ位置が不明
になった場合に利用し、それ以外の時には表示しなくて
も良い場合もある、と考え、ユーザが全体画像とカメラ
101の映像とを切り替えてカメラ画像を参照する。
【0070】本実施例の動きを図15を用いて説明す
る。ユーザは図15の上の表示画面110のようにカメ
ラ101の映像1503を見ているとする。ここで、ユ
ーザが、カメラ101で撮影する方向を変えたくなった
り、どこを見ているのかを確認したくなったとする。本
実施例のシステムでは、ユーザは、ポインタ1003で
表示画面110上の切り替えボタン1501を押すか、
キーボード1002でファンクションキーを押す。制御
部106は、ユーザが全体画面を要求していることを検
知し、制御部106は、図15の下の表示画面110の
ように、カメラ画像の表示1503を中止し、全体画像
1502を表示する。この画面上には、現在カメラ10
1が映している領域を示す表示801が表示されてお
り、ユーザがカメラ101がどこを映しているのかを直
感的に認識することができる。もちろん、第1の実施例
と同様にポインタ1003で表示領域801を移動・拡
大する事によりカメラ101の撮影方向を設定すること
もできる。また、全体画像1502を見ていて、実際の
カメラの画面を見たくなった場合には、前述の表示画面
110上の切り替えボタン1501を押すか、キーボー
ド1002でファンクションキーを押すことにより、図
15の上の表示画面110のように全体画像の表示15
02を止め、現在カメラ101が映している映像150
3を表示画面110に表示する。
【0071】図16に本実施例のフロー図を示す。本シ
ステムでは、図1の処理をカメラ画像を表示する処理
(ステップ2 202,ステップ5 205)と全体画
像を表示する処理(ステップ3 203,4 204,
6 206,7 207)との2つの部分に分け、それ
ぞれを入力部108からの入力(ポインタ1003で表
示画面110上の切り替えボタン1501を押すか、キ
ーボード1002でファンクションキーを押す)で切り
替える処理を行う。
【0072】各処理を順を追って説明する。前述と同様
の方法の(ステップ1)201で全体画像を全体画面記
憶部に記憶する。(ステップ161)1601で切り替
えフラッグiを0に初期設定し、(ステップ2)202
−(164)1604までを終了通知が来るまで繰り返
し行う。
【0073】ポインタ1003で表示画面110上の切
り替えボタン1501を押すか、キーボード1002で
ファンクションキー1を押すといった入力があった場合
には、(ステップ162)1602で切り替えフラッグ
を0と1とで切り替える。ボタン1501入力は、ユー
ザが、入力部108であるマウス1001の位置を表す
ポインタ1003が切り替えボタン1501の領域上に
移動させ、左ボタン1010を押すことにより指示する
ことにより行う。制御部106は、マウス1001から
の入力を常に監視しており、まず、入力位置がボタン領
域内かどうかを調べ、領域内であった場合には、左ボタ
ン1010が押されたという入力状態であるかどうかを
調べ、2つの条件が一致した場合に、ユーザから画面の
切り替えの指示があったと判断し、(ステップ162)
1602を実行する。また、制御部106は、キーボー
ド1002からの入力も常に監視しており、ファンクシ
ョンキー1が押されたという入力があった場合に(ステ
ップ162)1602を実行する。
【0074】(ステップ163)1603で、制御部1
06は、切り替えフラッグiの値が0であればカメラ画
像を表示する処理(ステップ2 202,5 205)
を実行し、iの値が1であれば全体画像を表示する処理
(ステップ3 203,4204,6 206,7 2
07,164 1604)を実行する。(ステップ2)
202−(7)207は前述の実施例と同じ処理であ
る。ただ、(ステップ3)203,(4)204,(6)
206,(7)207で全体画像を表示する場合には、 GX=CX,GY=CY,GH=CH,GW=CW のようにカメラ画像と全体画面映像とは全く同じ画面上
に表示するものとして扱う。
【0075】全体画面上で表示領域801を変更してカ
メラ101を設定することができるように、(ステップ
164)1604では、前述した方法と同じ方法で表示
領域801内で表示領域801の変更要求があるかどう
かを調べ、変更要求があるようであれば、(ステップ9
1)901−(93)903と全く同じ方法でカメラ情
報を設定する。
【0076】本実施例を用いることにより、全体画像と
カメラ画像とを少ない表示領域で表示することができ、
効率的に表示画面を利用することができる。
【0077】次に、全体画像の部分更新の例について説
明する。
【0078】ユーザはカメラ101をズームしたり、パ
ンしたりしながらカメラ101の操作を行う。このカメ
ラ操作を行っているときに、全体画像を取り込んだとき
と同じ位置になる場合がある。本実施例では、予め決め
られた場所でカメラ画像を表示する場合に、自動的に全
体画像の該当部分を更新する例である。
【0079】本実施例のシステム構成は図1と同じであ
る。ただ、処理フローを図2のフローから図17のフロ
ーのように変更する。この処理フローでは、第1の実施
例のフローに(ステップ171)1701を追加してい
る。(ステップ171)1701では、(ステップ2)2
02で取り込んだカメラ画像が全体画像を取り込む位置
(画角と方向)であるかどうかを確認し、そうであれ
ば、(ステップ2)202で取り込んだサンプリング画像
を全体画像として利用する。このとき、カメラ101の画
角と方向に基づいて全体画像のどの部分かを決定し、そ
の部分だけを更新する。
【0080】本システムを用いることにより、自動的に
全体画像を少しずつ更新することができる。また、パン
を行わなく、ズームだけを行う場合には、最も引いた時
の画像を自動的に取り込むことになり、自然に全体画像
を取り込むことができる。
【0081】次に、全体表示領域を別のカメラによって
表示する実施例について説明する。これまでに説明した
例では、全体画像を静止画で記憶している。本実施例で
は、全体画像を撮影するカメラとユーザが実際に制御し
て撮影するカメラとの2つのカメラとを連動して利用す
ることにより、全体画像もカメラ画像も常に更新される
システムを構築することができる。
【0082】本実施例のシステム構成を図18に示す。
本実施例では、前述の実施例に対し、ユーザがズームな
どの制御を行うことのできるカメラ1 1901のほか
に全体画像をとるカメラ2 1902を追加している。
このため、カメラ制御部103は、2つのカメラを制御す
る2本の制御線でここのカメラと接続しており、カメラ
制御部103は、カメラを制御する際に、どちらのカメ
ラを制御するかによって制御線を切り替えてカメラを制
御する。また、サンプリング部104は、2つのカメラ
の映像線でカメラと接続しており、カメラの映像をサン
プリングする際に、どちらのカメラの映像をサンプリン
グするかによって映像線を切り替えてサンプリングす
る。さらに、本実施例では、全体画像をカメラで撮影し
ながら表示するため、これまでの実施例のような全体画
像を記憶する必要はない。全体画像記憶部107は、全
体画像の画像を記憶するのではなく、カメラ1 190
1からの映像とカメラ2 1902からの全体画像との
関係を記憶する。また、本実施例では、カメラ2 19
02は固定カメラであるとする。もちろん、カメラ2
1902が動いても本実施例は実現できる。
【0083】本実施例のフロー図を図19に示す。まず
ステップ201で、システムの立ち上がり時などに予め
測定しておいたカメラ1 1901とカメラ2 190
2との関係を制御部106は、全体画像記憶部107に
設定する。次に(ステップ2)202,(3)203,(2
02)2002,(5)205,(203)2003,
(6)206、及び(7)207を終了通知が来るまで
繰り返す。(ステップ2)202で実施例1と全く同じ方
法でサンプリング部104を用いて、カメラ1 190
1の映像をサンプリングする。(ステップ3)203で
前述の実施例と同様な方法でカメラ制御部103を用い
てカメラ1 1901のカメラ情報を取得する。(ステ
ップ202)2002でカメラ2 1902で写してい
る全体画像上での現在カメラ1 1901で写している
映像の表示位置を(ステップ201)2001で全体画
像記憶部107に記憶した2つのカメラの関係を基に計
算する。(ステップ5)205で前述の実施例と同じ方
法で、(ステップ2)202でサンプリングしたカメラ
画像を表示画面110上に表示する。(ステップ20
3)2003で制御部106は、サンプリング部104
を用いてカメラ2 1902の画像をサンプリングす
る。このサンプリング方法は、(ステップ2)202で
行った方法と同じ、ただ、サンプリング部104でカメ
ラ1 1901とカメラ2 1902とのどちらからサンプ
リングするかを切り替えてサンプリングする。(ステッ
プ6)206で実施例1と同じ方法で、(ステップ5)
205でサンプリングした画像を表示した全体画像上に
(ステップ202)2002で計算した全体画像上での
位置を前述のの実施例と同じ方法で表示する。
【0084】上記フローの内、前述の実施例とは異なる
ステップについて詳細に説明する。まず、2つのカメラ
の関係の設定は、以下のようにして位置関係を定義す
る。図20を用いて説明する。カメラの位置関係を定義
するため、カメラ1 1901で写す点がカメラ2 190
2の上でどこにあるかを実測(例えば3点2101,2
102,2103)し、任意のカメラ1 1901の方
向がどこに来るかを内外挿して補間する手法でカメラ1
1901とカメラ2 1902との関係を定義する。
【0085】カメラ制御部103は、カメラ1 190
1の中心位置2106の方向をカメラの雲台102から
カメラ情報として受け取る。これを利用し、カメラ1
1901の中心点が映っているカメラ2 1902上の点を
示すことのより、カメラ11901上の点がカメラ2
1902の映像上にどのように射影されるかを決めるこ
とができる。例えば、図20のようにカメラ1 190
1の映像で3箇所の点を調べたとき、カメラ2 190
2上での点が、画素座標系で点A(γ1,δ1)210
1,点B(γ2,δ2)2102,点C(γ3,δ3)
2103、それぞれのカメラ1 1901の方向が(α
1,β1)2101,(α2,β2)2102,(α3,
β3)2103であったとする。γはαとδはβとのみ
依存していると考え、γをα1,α2,α3を用いて2
次曲線γ(α)で補間する。また、δをβ1,β2,β
3を用いて2次曲線δ(β)で補間する。こうすること
により、カメラ1 1901の方向からカメラ2 19
02上の画素座標系での位置が計算できる。3点を取る
ときには、できるだけ全体画像上で対角線上に来るよう
にした方が、補間精度はよい。
【0086】(ステップ201)2001では、上記のカ
メラ1 1901とカメラ2 1902との関係式を全体画
像記憶部107に記憶する。
【0087】全体画像上でのカメラ1 1901の表示
位置の計算は、以下のように行う。 (ステップ202)2002では全体画像記憶部107
に記憶している上記の変換式を用いることにより、カメ
ラ制御部103から取得できるカメラの方向,画角から
全体画面の画素座標系での位置が決まる。今、カメラ1
1901の方向(h,v),画角(ax,ay)であ
るとすると、表示領域801の全体画面上での領域(x
0,y0)−(x1−y1)は、以下の式で計算でき
る。
【0088】x0=γ(h−ax/2) y0=δ(v−ay/2) x1=γ(h+ax/2) y1=δ(v+ay/2) (ステップ7)207で上記の座標で全体画面上に矩形
を表示する。
【0089】また、全体画像からカメラの撮影方向を制
御する際には、上記の補間式の逆変換を用いてカメラ位
置計算部は全体図形上の点の座標からカメラの撮影方
向,画角を計算する。
【0090】本実施例を用いることにより、全体画像を
常に更新する事ができるため、全体画面上でなにか変化
があった場合でもすぐにその変化が画面上に反映され
る。
【0091】つぎに、全体画像が図形情報である実施例
について説明する。
【0092】これまで説明した実施例では、全体画像を
カメラ101で映した映像を利用して記憶している。本
実施例では、図21のように全体画像をカメラ101で
映した画像ではなく、ユーザが任意に指定した図形(例
えば、地図やCAD設計図面から作成した2次元,3次
元図形画像などであり、全体図形と呼ぶ)2201を全
体画像として利用する実施例である。本実施例のシステ
ム構成は最初に説明した実施例と同じである。ただ、本
実施例では、全体画像記憶部107は、カメラ101か
ら取得した画像ではなく、全体画像として利用する全体
図形2201と後述する全体図形2201とカメラ10
1との関連を記憶する。
【0093】本実施例では、図19のフローと同じ処理
を行う。だだし、図19の例では、2つのカメラ101
の方向と全体画像上での位置とを予め記憶していたが、
本実施例では、カメラ101の位置とユーザが定義した
全体図形2201とを関連づける。カメラ101の方向
や画角の情報から全体図形上に表示領域を明示する際に
は、カメラ101の方向や画角の情報から全体図形22
01上での位置を計算する。本実施例では、予め、図2
2に示すデータのように、カメラの方向(カメラの中心
方向)と全体図形2201上での位置との関係を3点記
憶しておき、そのデータから第6の実施例と同じく、カ
メラの方向(α,β)と図形上での位置(γ,δ)を2
次曲線で補間する。(ステップ202)2002では、
この全体図形とカメラの方向との補間式を用いて、カメ
ラの方向(h,v),画角(ax,ay)から表示領域
801の全体図形2201上での領域(x0,y0)−
(x1−y1)を計算する。
【0094】また、全体図形2201上でカメラ101
の撮影方向を制御する際には、上記の補間式の逆変換を
用いてカメラ位置検出部109は全体図形上の点の座標
からカメラ101の撮影方向,画角を計算する。
【0095】本実施例を用いることにより、カメラで全
体を撮ることができず全体画像を利用できない場合、地
図などのような図形を利用したい場合にも本手法を利用
する事ができる。
【0096】
【発明の効果】本発明によれば、ユーザは、カメラの映
像を見る際に全体の画像の中でどこを見ているのかを容
易に知ることができるので、カメラをパンやズームする
際に自分の見ている位置を迷うことはない。
【0097】また、全体画像を所定のタイミングで更新
するので、現在カメラで写している領域画像以外の監視
対象の特定部分で変化が起きても、所定のタイミングで
これを知ることができる。
【0098】また、全体画像上でカメラで撮影したい領
域を指定し、指定された領域をカメラで撮影するよう
に、カメラのパンやズームの状態を制御するので、本発
明によれば、ユーザは全体画像中の特定の部分をカメラ
で撮影したい場合にも、当該特定部分を容易に把握しつ
つ迅速的確にカメラを制御できる。
【図面の簡単な説明】
【図1】本発明の一実施例のシステム構成図である。
【図2】本発明の一実施例のカメラ画像表示フロー図で
ある。
【図3】本発明の一実施例のカメラパラメータとカメラ
映像との関係を示す図である。
【図4】本発明の一実施例のカメラパラメータと全体画
像との関係を示す図である。
【図5】本発明の一実施例の全体画像を獲得するフロー
図である。
【図6】本発明の一実施例の全体画像とカメラ映像との
角度座標系での関係を示す図である。
【図7】本発明の一実施例の全体画像とカメラ映像との
画素座標系での関係を示す図である。
【図8】本発明の一実施例の画面表示例の図である。
【図9】本発明の一実施例の全体画面上での編集フロー
図である。
【図10】本発明の一実施例の編集時の画面例の図であ
る。
【図11】本発明の一実施例のカメラのパンまたはズー
ムを行う際の編集例の図である。
【図12】本発明の一実施例の全体画面上で直接カメラ
表示領域を指定することを示す図である。
【図13】本発明の一実施例の画面表示フロー図であ
る。
【図14】本発明の一実施例の画面表示フロー図であ
る。
【図15】本発明の一実施例の表示画面例の図である。
【図16】本発明の一実施例の処理フロー図である。
【図17】本発明の一実施例の画面表示フロー図であ
る。
【図18】本発明の一実施例のシステム構成図である。
【図19】本発明の一実施例の画面表示フロー図であ
る。
【図20】本発明の一実施例のカメラ1の画像とカメラ
2の画像との関係を定義する際の画面例である。
【図21】本発明の一実施例の画面例である。
【図22】本発明の一実施例のカメラの画像と全体図形
との関係を定義するデータ例である。
【符号の説明】
101…カメラ、102…雲台、103…カメラ制御
部、104…サンプリング部、105…表示部、106
…制御部、107…全体画像記憶部、108…入力部、
109…カメラ位置検出部、110…表示画面、111
…表示画面例、801…全体画像上での表示領域、10
01…マウス、1002…キーボード、1003…ポイ
ンタ、1501…切り替えボタン、1901…カメラ
1、1902…カメラ2。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 二川 正康 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 川股 幸博 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 西川 敦彦 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】カメラからの画像を表示画面上に表示する
    画像表示装置において、カメラの映している領域より広
    い領域(全体画像)の画像を記憶する全体画像記憶手
    段,前記全体画像を表示する全体画像表示手段,現在カ
    メラが映している領域の画像を表示する領域画像表示手
    段,現在カメラが映している領域の全体画像上での位置
    を検出するカメラ位置検出手段,前記カメラ位置検出手
    段で検出した全体画像上の位置に目印を表示するカメラ
    位置表示手段及び前記全体画像記憶手段に記憶される全
    体画像を更新する全体画像更新手段を有し、前記全体画
    像更新手段は、ユーザの全体画像更新要求の入力を受け
    て前記全体画像を更新することを特徴とする画像表示装
    置。
  2. 【請求項2】カメラからの画像を表示画面上に表示する
    画像表示装置において、カメラの映している領域より広
    い領域(全体画像)の画像を記憶する全体画像記憶手
    段,前記全体画像を表示する全体画像表示手段,現在カ
    メラが映している領域の画像を表示する領域画像表示手
    段,現在カメラが映している領域の全体画像上での位置
    を検出するカメラ位置検出手段,前記カメラ位置検出手
    段で検出した全体画像上の位置に目印を表示するカメラ
    位置表示手段,前記領域画像表示手段の表示状態を検知
    する領域画像表示状態検知手段及び前記全体画像記憶手
    段に記憶される全体画像を更新する全体画像更新手段を
    有し、前記全体画像更新手段は、前記領域画像表示手段
    が現在カメラが映している領域の画像を表示していない
    ことを前記領域画像表示状態検知手段が検知したとき
    に、前記全体画像を更新することを特徴とする画像表示
    装置。
  3. 【請求項3】請求項1または請求項2に記載の画像表示
    装置において、1つの表示画面上で前記カメラからの領
    域画像と前記全体画像とを切り替えて表示する表示切り
    替え手段を持つことを特徴とする画像表示装置。
  4. 【請求項4】カメラからの映像を表示画面上に表示する
    画像表示装置において、カメラの映している領域より広
    い領域(全体画像)を表示する全体画像表示手段,前記
    表示手段で表示している全体画像上で領域を指定する領
    域指定手段,領域指定手段によって指定された領域をカ
    メラで撮影するように前記カメラを制御するカメラ制御
    手段を持つことを特徴とする画像表示装置。
  5. 【請求項5】請求項4に記載の画像表示装置において、
    前記領域指定手段は、全体画像上で矩形領域を指定する
    ことにより領域指定を行うことを特徴とする画像表示装
    置。
  6. 【請求項6】請求項4に記載の画像表示装置において、
    現在前記カメラが映している領域の全体画像上での位置
    を検出するカメラ位置検出手段,前記カメラ位置検出手
    段で検出した全体画像上の位置に目印を表示するカメラ
    位置表示手段を持つことを特徴とする画像表示装置。
  7. 【請求項7】請求項6に記載の画像表示装置において、
    前記領域指定手段は、前記カメラ位置表示手段が表示し
    た目印を移動,拡大・縮小することにより領域を指定す
    ることを特徴とする画像表示装置。
  8. 【請求項8】カメラからの監視対象画像を表示画面上に
    表示する監視システムにおいて、カメラの映している領
    域より広い領域(全体画像)の画像を記憶する全体画像
    記憶手段,前記全体画像を表示する全体画像表示手段,
    現在カメラが映している領域の画像を表示する領域画像
    表示手段,現在カメラが映している領域の全体画像上で
    の位置を検出するカメラ位置検出手段,前記カメラ位置
    検出手段で検出した全体画像上の位置に目印を表示する
    カメラ位置表示手段及び前記全体画像記憶手段に記憶さ
    れる全体画像を更新する全体画像更新手段を有し、前記
    全体画像更新手段は、ユーザの全体画像更新要求の入力
    を受けて前記全体画像を更新することを特徴とする監視
    システム。
  9. 【請求項9】カメラからの監視対象映像を表示画面上に
    表示する監視システムにおいて、カメラの映している領
    域より広い領域(全体画像)を表示する全体画像表示手
    段,前記表示手段で表示している全体画像上で領域を指
    定する領域指定手段,領域指定手段によって指定された
    領域をカメラで撮影するように前記カメラを制御するカ
    メラ制御手段を持つことを特徴とする監視システム。
JP02367595A 1995-02-13 1995-02-13 画像表示装置 Expired - Fee Related JP3265893B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP02367595A JP3265893B2 (ja) 1995-02-13 1995-02-13 画像表示装置
US08/598,699 US6337709B1 (en) 1995-02-13 1996-02-08 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02367595A JP3265893B2 (ja) 1995-02-13 1995-02-13 画像表示装置

Publications (2)

Publication Number Publication Date
JPH08223466A true JPH08223466A (ja) 1996-08-30
JP3265893B2 JP3265893B2 (ja) 2002-03-18

Family

ID=12117067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02367595A Expired - Fee Related JP3265893B2 (ja) 1995-02-13 1995-02-13 画像表示装置

Country Status (2)

Country Link
US (1) US6337709B1 (ja)
JP (1) JP3265893B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252534A (ja) * 1998-02-27 1999-09-17 Fuji Photo Optical Co Ltd カメラシステム
JP2001145094A (ja) * 1999-11-12 2001-05-25 Canon Inc カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP2005244562A (ja) * 2004-02-26 2005-09-08 Chuo Electronics Co Ltd カメラの遠隔制御方法及び装置
JP2005354748A (ja) * 1997-04-21 2005-12-22 Sony Corp 撮像手段制御方法および撮像手段制御装置
US7092012B2 (en) 1996-11-15 2006-08-15 Canon Kabushiki Kaisha Image processing apparatus and method, storage medium, and communication system
JP2008236783A (ja) * 2008-04-28 2008-10-02 Sony Corp 制御装置、制御方法及び監視システム
JP2008245308A (ja) * 1997-04-21 2008-10-09 Sony Corp 制御装置および制御方法、並びに監視システム
US7720359B2 (en) 1997-04-21 2010-05-18 Sony Corporation Controller for photographing apparatus and photographing system
JP2011142685A (ja) * 2011-04-05 2011-07-21 Canon Inc カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP2011155686A (ja) * 2011-04-05 2011-08-11 Canon Inc カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP4764959B1 (ja) * 2010-03-25 2011-09-07 富士フイルム株式会社 撮影装置及びその制御方法
JP2013038632A (ja) * 2011-08-09 2013-02-21 Sharp Corp 撮影装置、当該撮影装置を有する携帯情報処理端末、および携帯情報処理端末を制御するためのプログラム
US8643788B2 (en) 2002-04-25 2014-02-04 Sony Corporation Image processing apparatus, image processing method, and image processing program
JP2014505627A (ja) * 2011-01-13 2014-03-06 ザ・ボーイング・カンパニー 拡張コラボレーション・システム
JP2014106888A (ja) * 2012-11-29 2014-06-09 Brother Ind Ltd 作業補助システムおよびプログラム

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
JP3943674B2 (ja) * 1996-10-25 2007-07-11 キヤノン株式会社 カメラ制御システム並びにカメラサーバ及びその制御方法
JP3667032B2 (ja) * 1997-06-10 2005-07-06 キヤノン株式会社 カメラ制御システムおよびその制御方法およびその制御を実行するプログラムを記憶した記憶媒体
JP4702911B2 (ja) * 1998-09-30 2011-06-15 キヤノン株式会社 カメラ制御方法、カメラ制御サーバ、および記録媒体
US20040199435A1 (en) * 1999-07-28 2004-10-07 Abrams David Hardin Method and apparatus for remote location shopping over a computer network
JP3722653B2 (ja) * 1999-08-31 2005-11-30 松下電器産業株式会社 監視カメラ装置及び監視カメラの表示方法
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
CA2345803A1 (en) 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US9031383B2 (en) 2001-05-04 2015-05-12 Legend3D, Inc. Motion picture project management system
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
AU2002305387B2 (en) * 2001-05-04 2008-04-03 Legend Films, Llc Image sequence enhancement system and method
WO2002101534A1 (en) * 2001-06-12 2002-12-19 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
US9760235B2 (en) * 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
US7084886B2 (en) 2002-07-16 2006-08-01 Idelix Software Inc. Using detail-in-context lenses for accurate digital image cropping and measurement
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
CA2370752A1 (en) * 2002-02-05 2003-08-05 Idelix Software Inc. Fast rendering of pyramid lens distorted raster images
CA2386560A1 (en) * 2002-05-15 2003-11-15 Idelix Software Inc. Controlling optical hardware and dynamic data viewing systems with detail-in-context viewing tools
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
CA2406131A1 (en) * 2002-09-30 2004-03-30 Idelix Software Inc. A graphical user interface using detail-in-context folding
CA2449888A1 (en) 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
US20070097109A1 (en) * 2005-10-18 2007-05-03 Idelix Software Inc. Method and system for generating detail-in-context presentations in client/server systems
CA2407383A1 (en) * 2002-10-10 2004-04-10 Idelix Software Inc. Editing multiple layers of a presentation using detail-in-context lenses
CA2411898A1 (en) 2002-11-15 2004-05-15 Idelix Software Inc. A method and system for controlling access to detail-in-context presentations
US7486302B2 (en) * 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
US8106927B2 (en) * 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9317945B2 (en) * 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
KR100771137B1 (ko) * 2005-02-21 2007-10-30 삼성전자주식회사 프라이버시영역을 마스크 처리하는 감시시스템 및 마스크영역 설정방법
US7580036B2 (en) * 2005-04-13 2009-08-25 Catherine Montagnese Detail-in-context terrain displacement algorithm with optimizations
US8031206B2 (en) * 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
US9026938B2 (en) * 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
WO2017158718A1 (ja) * 2016-03-15 2017-09-21 三菱電機株式会社 遠隔作業支援装置、指示用端末及び現場用端末
CN116069156A (zh) * 2021-11-01 2023-05-05 华为技术有限公司 拍摄参数调节方法、电子设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4790028A (en) 1986-09-12 1988-12-06 Westinghouse Electric Corp. Method and apparatus for generating variably scaled displays
JPS647791A (en) * 1987-06-30 1989-01-11 Nec Corp Multiscreen video conference method and device therefor
JPH04157889A (ja) * 1990-10-20 1992-05-29 Fujitsu Ltd 人物撮像位置の自動調整方法
US5258837A (en) 1991-01-07 1993-11-02 Zandar Research Limited Multiple security video display
US5200818A (en) * 1991-03-22 1993-04-06 Inbal Neta Video imaging system with interactive windowing capability
US5384588A (en) * 1991-05-13 1995-01-24 Telerobotics International, Inc. System for omindirectional image viewing at a remote location without the transmission of control signals to select viewing parameters
US5164827A (en) * 1991-08-22 1992-11-17 Sensormatic Electronics Corporation Surveillance system with master camera control of slave cameras
US5396287A (en) * 1992-02-25 1995-03-07 Fuji Photo Optical Co., Ltd. TV camera work control apparatus using tripod head
WO1995011566A1 (en) * 1993-10-20 1995-04-27 Videoconferencing Systems, Inc. Adaptive videoconferencing system
US5644386A (en) 1995-01-11 1997-07-01 Loral Vought Systems Corp. Visual recognition system for LADAR sensors
JP2981408B2 (ja) 1995-02-16 1999-11-22 日本電気システム建設株式会社 カメラ画像内の目的とする被写体の高速導入制御方法および装置
JPH08223561A (ja) 1995-02-17 1996-08-30 Nippon Denki Syst Kensetsu Kk モニタエリア図によるカメラの制御方法および装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7092012B2 (en) 1996-11-15 2006-08-15 Canon Kabushiki Kaisha Image processing apparatus and method, storage medium, and communication system
US8045837B2 (en) 1997-04-21 2011-10-25 Sony Corporation Controller for photographing apparatus and photographing system
JP2005354748A (ja) * 1997-04-21 2005-12-22 Sony Corp 撮像手段制御方法および撮像手段制御装置
JP2008245308A (ja) * 1997-04-21 2008-10-09 Sony Corp 制御装置および制御方法、並びに監視システム
US7720359B2 (en) 1997-04-21 2010-05-18 Sony Corporation Controller for photographing apparatus and photographing system
US9210328B2 (en) 1997-04-21 2015-12-08 Sony Corporation Controller for photographing apparatus and photographing system
US8594483B2 (en) 1997-04-21 2013-11-26 Sony Corporation Controller for photographing apparatus and photographing system
JPH11252534A (ja) * 1998-02-27 1999-09-17 Fuji Photo Optical Co Ltd カメラシステム
JP2001145094A (ja) * 1999-11-12 2001-05-25 Canon Inc カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
US8643788B2 (en) 2002-04-25 2014-02-04 Sony Corporation Image processing apparatus, image processing method, and image processing program
JP2005244562A (ja) * 2004-02-26 2005-09-08 Chuo Electronics Co Ltd カメラの遠隔制御方法及び装置
JP2008236783A (ja) * 2008-04-28 2008-10-02 Sony Corp 制御装置、制御方法及び監視システム
WO2011118066A1 (ja) * 2010-03-25 2011-09-29 富士フイルム株式会社 撮影装置及びその制御方法
CN102349291A (zh) * 2010-03-25 2012-02-08 富士胶片株式会社 图像捕获设备及其控制方法
JP4764959B1 (ja) * 2010-03-25 2011-09-07 富士フイルム株式会社 撮影装置及びその制御方法
JP2014505627A (ja) * 2011-01-13 2014-03-06 ザ・ボーイング・カンパニー 拡張コラボレーション・システム
JP2011155686A (ja) * 2011-04-05 2011-08-11 Canon Inc カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP2011142685A (ja) * 2011-04-05 2011-07-21 Canon Inc カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP2013038632A (ja) * 2011-08-09 2013-02-21 Sharp Corp 撮影装置、当該撮影装置を有する携帯情報処理端末、および携帯情報処理端末を制御するためのプログラム
JP2014106888A (ja) * 2012-11-29 2014-06-09 Brother Ind Ltd 作業補助システムおよびプログラム

Also Published As

Publication number Publication date
JP3265893B2 (ja) 2002-03-18
US6337709B1 (en) 2002-01-08

Similar Documents

Publication Publication Date Title
JP3265893B2 (ja) 画像表示装置
US6452628B2 (en) Camera control and display device using graphical user interface
JP4770493B2 (ja) 遠隔指示システム及び遠隔指示方法
EP2426637B1 (en) Method for generating panoramic image
US9532008B2 (en) Display control apparatus and display control method
JP6618644B2 (ja) 制御装置及び制御方法、プログラム
JP2011205573A (ja) 制御装置、カメラシステム及びプログラム
JP2014039166A (ja) 自動追尾カメラの制御装置及びそれを備える自動追尾カメラ
JP2017017503A (ja) 情報処理装置、情報処理方法
JP3785033B2 (ja) 監視カメラ制御システム及び監視カメラ制御装置
JP4378978B2 (ja) 表示処理装置および固定画素型表示システム
JP3875199B2 (ja) 撮影装置
JPH09116886A (ja) 画像情報通信装置
KR101670247B1 (ko) Cctv 실시간 영상의 원클릭 선택을 이용한 객체 확대 이동 시스템 및 그 방법
JP2001145094A (ja) カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JPH10174090A (ja) 監視支援装置
JP3902805B2 (ja) カメラ制御装置及びカメラ制御装置の画像表示方法
JP3313931B2 (ja) ビデオカメラ制御装置
JP2002077880A (ja) 遠隔監視システム
JPH08163411A (ja) カメラシステム
JPH06266982A (ja) プラント監視装置
JP2005244562A (ja) カメラの遠隔制御方法及び装置
KR100762179B1 (ko) 줌-인 기능을 구비한 방송 수신기의 포인트 위치인식방법
JP2001268556A (ja) 遠隔監視システムおよび制御端末装置
JPH09186923A (ja) 撮像方法とその装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees