JP4131340B2 - 制御装置、制御方法、および受信装置 - Google Patents

制御装置、制御方法、および受信装置 Download PDF

Info

Publication number
JP4131340B2
JP4131340B2 JP18651797A JP18651797A JP4131340B2 JP 4131340 B2 JP4131340 B2 JP 4131340B2 JP 18651797 A JP18651797 A JP 18651797A JP 18651797 A JP18651797 A JP 18651797A JP 4131340 B2 JP4131340 B2 JP 4131340B2
Authority
JP
Japan
Prior art keywords
image
imaging
setting information
input
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18651797A
Other languages
English (en)
Other versions
JPH1132246A (ja
Inventor
研 玉山
忠房 富高
正和 小柳
利幸 飯島
直泰 細沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP18651797A priority Critical patent/JP4131340B2/ja
Priority to US09/111,337 priority patent/US6545708B1/en
Publication of JPH1132246A publication Critical patent/JPH1132246A/ja
Application granted granted Critical
Publication of JP4131340B2 publication Critical patent/JP4131340B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、制御装置、制御方法、および受信装置に関し、特に、撮像装置の撮像範囲を制御する制御装置、制御方法、および受信装置に関する。
【0002】
【従来の技術】
ビデオカメラなどの撮像装置を遠隔操作して監視などを行う場合は、操作者側の制御装置と撮像装置を通信回線で結び、伝送されて来る画像を見ながら所望の画像が得られるように操作者が制御装置を制御していた。
【0003】
また、撮像装置が記録装置を有している場合には、撮像装置によって記録された静止画像または動画像は、フィルムや磁気テープなどの記録媒体に記録された後に通信回線を介して操作者側に伝送されるようになっていた。
【0004】
【発明が解決しようとする課題】
ところで、従来の技術においては、通信回線としては、アナログ回線やISDNなどが使用されることが多いが、これらの回線は、画像に対する伝送速度は充分に速くないので、所望の画像が得られたか否かを確認するために多大な時間が必要になるという課題があった。
【0005】
また、通信回線の遅れや伝送速度が必ずしも一定でない場合があり、そのような場合には、操作者を含むフィードバックループが不安定になり、思うような制御が困難になるという課題があった。
【0006】
更に、前述のような理由により、意図した結果を実現するための操作を見つけるまでに試行錯誤を繰り返すことになるので、無駄な通信や撮像装置の動作が発生するという課題もあった。
【0007】
また、記録装置に記録された静止画像や動画像の中から、所望のシーンを検索しようとする場合、前述のように記録媒体はフィルムや磁気テープであるので、ランダムアクセスが困難であり、その結果、所望のシーンに到達するまでに多大の時間を要するという課題があった。
【0008】
本発明は、以上のような状況に鑑みてなされたものであり、通信回線を介して撮像装置を制御する場合において、円滑な制御を行うことを可能とするものである。
【0009】
【課題を解決するための手段】
請求項1に記載の制御装置は、撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像を記録する記録手段と、撮影装置を設定するための設定情報が入力される入力手段と、入力手段から入力された設定情報に応じて撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、記録手段に記録されたパノラマ画像を参照して予測する撮像範囲予測手段と、撮像範囲予測手段により得られた画像を1つの表示装置に出力する出力手段と、表示装置に表示されている画像を参照して、入力手段より入力された設定情報に対応する制御を実行するか否かを決定する決定手段と、決定手段によって制御を実行することが決定された場合には、入力手段より入力された設定情報に対応する制御信号を伝送媒体を介して撮像装置に送信する送信手段とを備え、前記撮像装置は、少なくともパン機能、チルト機能及びズーム機能をさらに備え、前記撮像範囲予測手段は、前記入力手段より入力されたパン量、チルト量及びズーム量より再設定された撮像範囲の画像を予測することを特徴とする。
【0010】
請求項5に記載の制御方法において、少なくともパン機能、チルト機能及びズーム機能を備える撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像を記録する記録ステップと、撮像装置を設定するための設定情報が入力される入力ステップと、設定情報として入力ステップから入力されたパン量、チルト量及びズーム量により撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、記録ステップで記録されたパノラマ画像を参照して予測する撮像範囲予測ステップと、撮像範囲予測ステップにより得られた画像を表示装置に出力する出力ステップと、表示装置に表示されている画像を参照して、入力ステップより入力された設定情報に対応する制御を実行するか否かを決定する決定ステップと、決定ステップによって制御を実行することが決定された場合には、入力ステップより入力された設定情報に対応する制御信号を伝送媒体を介して撮像装置に送信する送信ステップとを備えることを特徴とする。
【0012】
請求項6に記載の受信装置は、少なくともパン機能、チルト機能及びズーム機能を備える撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像を記録する記録手段と、制御装置から伝送媒体を介して伝送されてきた撮像装置の設定情報を受信する受信手段と、設定情報として受信手段により受信された、パン量、チルト量及びズーム量により撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、記録手段に記録されたパノラマ画像を参照して予測する撮像範囲予測手段と、撮像範囲予測手段により得られた画像を制御装置に送信する送信手段と、制御装置から設定情報に応じて撮像装置を設定する制御命令を受信した場合には、設定情報に応じて撮像装置を設定する設定手段とを備えることを特徴とする。
【0018】
請求項1に記載の制御装置および請求項5に記載の制御方法においては、撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像が記録され、撮像装置を設定するための設定情報が入力され、入力された設定情報に応じて撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、記録されたパノラマ画像を参照して予測し、撮像範囲予測ステップにより得られた画像を1つの表示装置に出力し、表示装置に表示されている画像を参照して、入力された設定情報に対応する制御を実行するか否かを決定し、制御を実行することが決定された場合には、入力された設定情報に対応する制御信号を伝送媒体を介して撮像装置に送信する。例えば、撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像を記録し、撮像装置により被写体を撮像する際の新たな設定情報が入力され、入力された設定情報に応じて撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、記録されたパノラマ画像より抜き出して撮像範囲を予測し、予測された画像を表示装置に出力し、表示装置に表示されている画像を参照して、入力された設定情報に対応する制御を実行するか否かを決定し、制御を実行することが決定された場合には、入力された設定情報を伝送媒体を介して撮像装置に送信し、撮像装置は、少なくともパン機能、チルト機能及びズーム機能をさらに備え、パン量、チルト量及びズーム量より再設定された撮像範囲の画像を予測する。
【0019】
請求項6に記載の受信装置においては、少なくともパン機能、チルト機能及びズーム機能を備える撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像が記録され、制御装置から伝送媒体を介して伝送されてきた撮像装置の設定情報を受信し、設定情報として受信された、パン量、チルト量及びズーム量により撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、記録されたパノラマ画像を参照して予測し、予測された画像を制御装置に送信し、制御装置から設定情報に応じて撮像装置を設定する制御命令を受信した場合には、設定情報に応じて撮像装置を設定する。例えば、撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像を記録し、制御装置から伝送媒体を介して伝送されてきた撮像装置の設定情報を受信し、受信された設定情報に応じて撮像装置が再設定された場合に得られる被写体の画像を予測し、予測された画像を制御装置に送信し、制御装置から設定情報に応じて撮像装置を設定する制御命令を受信した場合には、設定情報に応じて撮像装置を設定する。
【0021】
【発明の実施の形態】
図1は、本発明の実施の形態の構成例を示すブロック図である。
【0022】
この図において、テレビカメラ1は、被写体の光画像を対応する電気信号(例えば、NTSC信号)に光電変換し、得られたビデオ信号を出力するようになされている。また、テレビカメラ1は、ワークステーション3からRS232C端子を介して伝送されてきた制御信号に応じて、ズーム、フォーカス、露出、ホワイトバランスなどを適宜設定することが可能とされている。
【0023】
パンチルタ2は、ビデオカメラ1の光軸を左右方向にパンニング(左右移動)させるとともに、上下方向にチルティング(上下移動)させるようになされている。
【0024】
ワークステーション3は、パーソナルコンピュータ5から伝送されてきた制御コマンドに基づいてビデオカメラ1およびパンチルタ2を制御するとともに、ビデオカメラ1から出力されたビデオ信号を記録する。また、ワークステーション3は、インターネット4を介して、ビデオ信号や制御コマンドなどをパーソナルコンピュータ5との間で授受するようになされている。
【0025】
パーソナルコンピュータ5は、ビデオカメラ1により撮像され、ワークステーション3およびインターネット4を介して伝送されてきた画像データをCRTモニタ6に表示するとともに、マウス7(入力手段)などの入力装置から入力された情報に対応する制御コマンドを、インターネット4を介してワークステーション3に伝送するようになされている。
【0026】
図2は、図1に示すワークステーション3の詳細な構成例を示すブロック図である。
【0027】
この図において、インタフェース30(設定手段)は、パンチルタ2に対して制御信号を出力してビデオカメラ1をパンニングまたはチルティングさせるとともに、現在のパンチルタ2の状態(パンニングおよびチルティングの状態)を取得するようになされている。CPU31(予測手段、設定手段、検索手段、変換手段、合成手段)は、装置の各部を制御するとともに、各種演算処理を実行するようになされている。
【0028】
ビデオキャプチャ32は、ビデオカメラ1から出力されるNTSC規格に準拠したビデオ信号をディジタル信号(画像データ)に変換するようになされている。ハードディスクドライブ33(第1の記憶手段、第2の記憶手段)は、ビデオキャプチャ32より入力された画像データを必要に応じて記録するとともに、各種プログラムなどを記録するようになされている。
【0029】
ROM34は、例えば、IPL(Initial Program Loader)などの基本的なプログラムや各種データなどを格納している。RAM36は、例えば、CPU31が所定の処理を実行する際に、演算途中のデータやプログラム等を格納するようになされている。
【0030】
ネットワークインターフェース37(受信手段、送信手段)は、ワークステーション3の内部形式のデータをインターネットプロトコルに準じたデータ変換して出力するとともに、インターネット4を介して伝送されてきたデータを、ワークステーション3の内部形式のデータに変換するようになされている。
【0031】
なお、ワークステーション3は、正確には、イーサネットを介してインターネット4に接続されている。以下では、このワークステーション3を、適宜、サーバと呼ぶことにする。
【0032】
図3は、図1に示すパーソナルコンピュータ5の詳細な構成例を示すブロック図である。
【0033】
この図において、ネットワークインタフェース50(送信手段)は、インターネット4を介して伝送されてきたデータをパーソナルコンピュータ5の内部形式のデータに変換するとともに、パーソナルコンピュータ5の内部形式のデータをインターネットプロトコルに準じたデータに変換し、インターネット4に出力するようになされている。
【0034】
CPU51(予測手段、決定手段、選択手段)は、装置の各部を制御するとともに、各種演算処理を実行するようになされている。ROM52は、例えば、IPLなどの基本的なソフトウエアやデータなどを格納するようになされている。
【0035】
フレームメモリ55(出力手段)は、ハードディスクドライブ56(第1の記憶手段、第2の記憶手段)に記録されている画像データや、インターネット4を介して伝送されてきた画像データが書き込まれると、これをRGB信号に変換してCRTモニタ6に出力するようになされている。
【0036】
RAM54は、CPU51が種々の演算を行う際の途中経過のデータやプログラムなどを格納するようになされている。ハードディスクドライブ56は、インターネット4を介して伝送されてきた画像データや各種プログラムなどを記録するようになされている。
【0037】
インタフェース57は、マウス7などの入力装置から出力されるデータを受信し、CPU51に対して供給するようになされている。
【0038】
なお、パーソナルコンピュータ5は、ブラウザソフト並びにサーバから送られてくるJAVA言語で記述されたソフトウエアにより、画像表示、操作入力の受け付け、記録または再生、および、通信などの処理を行うようになされている。
【0039】
次に、以上の実施の形態の動作について、図4に示すフローチャートを参照して説明する。
【0040】
図4は、図3に示すパーソナルコンピュータ5において実行される処理の一例を説明するフローチャートである。
【0041】
この処理が実行されると、パーソナルコンピュータ5のCPU51は、ステップS1において、初期化処理を行う。即ち、CPU51は、例えば、公衆回線などを介してインターネット4と接続してワークステーション(サーバ)3との間で情報の授受を開始する。
【0042】
続くステップS2では、CPU51は、カメラ1が撮影可能な範囲の画像(以下、パノラマ画像と言う)を伝送するように、ワークステーション3に対して要求を行う。その結果、ワークステーション3のCPU31は、ビデオカメラ1によって予め撮像されてハードディスクドライブ33に格納されているパノラマ画像を読み出して、ネットワークインタフェース37を介して送信する。パーソナルコンピュータ5のCPU51は、ワークステーション3から送信されたパノラマ画像をネットワークインタフェース50により受信して、ハードディスクドライブ56に記録させるとともに、CRTモニタ6に表示させる。
【0043】
図5は、このとき、CRTモニタ6に表示される画像の表示例である。この表示例では、パノラマ画像100が表示され、その中央にビデオカメラ1により現在撮影されている画像が枠101で囲繞されて示されている。この枠101は、CRTモニタ6の画面と同一のアスペクト比となるようにされている。また、枠101内部の画像は、画面の右上部に拡大されて、現在撮影中の画像102として表示される。操作実行前のプレビュー画像(以下、適宜プレビュー画像という)104および枠102に関しては後述する。
【0044】
なお、長方形の枠を表示する代わりに、枠内部の領域の色調を他の部分とは異なるようにし、この領域が目立つようにしてもよい。
【0045】
ステップS3において、CPU51は、イベント待ち状態となる。即ち、CPU51は、例えば、マウス7が移動されたり、ボタンが操作されるなどのイベントが発生するまで待機する。そして、イベントが発生した場合には、ステップS4に進む。
【0046】
ステップS4では、CPU51は、マウス7のボタンが押された(プレスされた)か否かを判定する。その結果、ボタンが押された(YES)と判定した場合には、ステップS5に進む。また、ボタンが押されていない(NO)と判定した場合は、ステップS12に進む。
【0047】
ステップS4において、マウス7のボタンが押された(YES)と判定された場合には、ステップS5に進む。ステップS5では、マウス7の画面上における位置が取得され、ステップS6に進む。
【0048】
ステップS6では、CPU51は、マウス7のボタンが押された位置が図4に示す枠101の上(または、枠の近傍)であるか否かを判定する。その結果、マウス7のボタンが押された位置が枠101の上ではない(NO)と判定した場合には、ステップS7に進む。また、枠101の上である(YES)と判定した場合には、ステップS10に進む。
【0049】
ステップS10では、画角変更のためのドラッグ処理が開始される。即ち、CPU51は、図6に示すように、マウス7の移動距離に応じて枠101を拡大または縮小して新たな枠102として表示する。このとき、枠102は、枠101と同一の中心点とされるとともに、元の枠101と相似形になるように描画される。そして、ステップS9に進む。
【0050】
ステップS6において、枠101の上ではない(NO)と判定された場合には、ステップS7に進み、枠101の内部でマウス7のボタンが押されたか否かを判定する。その結果、枠101の内部ではない(NO)と判定された場合には、ステップS8に進む。また、枠101の内部である(YES)と判定した場合には、ステップS11に進み、画角を一定に保ったままのドラッグが開始される。即ち、CPU51は、マウス7の移動に応じて、同じ大きさの枠102を新たに描画するとともに、以前の枠102を消去する。その結果、枠102は、マウス7に追従するように移動されることになる。そして、ステップS9に進む。
【0051】
ステップS7において、枠101の内部ではない(NO)と判定された場合には、ステップS8に進む。ステップS8においては、CPU51は、マウス7のボタンが押された位置を中心として新たな枠102を表示する。そして、マウス7が移動されている場合には、新たに表示された枠102の移動を開始する。即ち、枠101の位置とは無関係に枠102(枠101と同サイズの枠)が描画される。
【0052】
続くステップS9においては、CPU51は、ハードディスクドライブ56に格納されているパノラマ画像から、枠102により囲繞されている領域に対応する画像データを読み出し、拡大または縮小などの処理を施した後、図5に示すように、画面の左上部に操作実行前のプレビュー画像104として表示する。そして、ステップS3に戻り、前述の場合と同様の処理を繰り返すことになる。
【0053】
また、ステップS4において、マウス7のボタンが押されていない(NO)とCPU51が判定した場合には、ステップS12に進む。ステップS12では、マウス7のボタンがリリースされた(離された)か否かを判定する。その結果、マウス7のボタンがリリースされた(YES)と判定した場合にはステップS13に進み、また、ボタンがリリースされていない(NO)と判定した場合には、ステップS17に進む。なお、以下では、ステップS18乃至ステップS21の処理をステップS13乃至ステップS16の処理に優先して説明する。
【0054】
ステップS17では、CPU51は、マウス7が移動されているか否かを判定する。その結果、マウス7が移動されていない(NO)と判定した場合には、ステップS23に進む。また、マウス7が移動されている(YES)と判定した場合には、ステップS18に進む。
【0055】
ステップS18では、CPU51は、マウス7がドラッグ中(ボタンが押されたまま移動されている状態)であるか否かを判定する。その結果、マウス7がドラッグ中ではない(NO)と判定した場合には、ステップS3の処理に戻り、前述の場合と同様の処理を繰り返す。また、ドラッグ中である(YES)と判定した場合にはステップS19に進む。
【0056】
ステップS19では、画角の変更処理を現在実行中であるか否かが判定される。即ち、CPU51は、前回の処理のステップS6において、枠101の上でマウス7のボタンが押されたと判定した場合には、YESと判定して、ステップS22に進む。また、その他の場合には、ステップS20に進む。
【0057】
ステップS20では、CPU51は、マウス7の移動方向に対応して大きさの等しい新たな枠102を描画するとともに、以前の枠102を消去する。その結果、枠102がマウス7に追従して移動することになる。
【0058】
また、ステップS19において、NOと判定された場合には、ステップS22に進み、CPU51は、マウス7のボタンが押された時点における枠102(または枠101)の大きさを基準とし、マウス7の移動距離に応じて、枠102を縮小または拡大して描画する。そして、ステップS21に進む。
【0059】
ステップS21では、CPU51は、ステップS20またはステップS22において描画された新たな枠102によって囲繞される領域に対応する画像データを、ハードディスクドライブ56から読み出して、フレームメモリ55の所定の領域に書き込む。その結果、枠102によって指定される領域の画像が、プレビュー画像104として表示されることになる。そして、ステップS3に戻り、前述の場合と同様の処理が繰り返される。
【0060】
ところで、ステップS12において、マウス7のボタンがリリースされた(YES)と判定された場合には、ステップS13に進むことになる。
【0061】
ステップS13では、CPU51は、ドラッグ処理を終了する。即ち、新たな枠102の描画処理とプレビュー画像104の表示処理とを中断する。その結果、枠102はパノラマ画像100の所定の位置に表示されたままの状態となり、また、プレビュー画像104としては、枠102により囲繞された領域の画像が表示された状態となる。
【0062】
続くステップS14では、CPU51は、枠102の位置および大きさから、パンチルタ2の移動させるべき方向と画角をそれぞれ算出する。即ち、枠102の中心位置を算出し、その方向にビデオカメラ1の光軸が向くように、パンチルタ2のパン量とチルト量とを算出する。また、枠102の大きさを元にして、ビデオカメラ1のズーム量を算出する。そして、ステップS15に進む。
【0063】
ステップS15では、CPU51は、ステップS14において算出したパン量、チルト量、および、ズーム量をネットワークインタフェース37に供給し、インターネット4を介してワークステーション3に伝送させる。
【0064】
その結果、ワークステーション3では、ネットワークインタフェース37により伝送されてきたデータを受信する。そして、CPU31は、受信したパン量とチルト量とをインタフェース30を介して、パンチルタ2に供給する。その結果、パンチルタ2は、パン量に応じた角度だけビデオカメラ1を左右方向に移動させるとともに、チルト量に応じた角度だけ上下方向にビデオカメラ1を上下方向に移動させる。
【0065】
更に、CPU31は、ズーム量をインターフェース30を介してビデオカメラ1に対して出力する。その結果、ビデオカメラ1の光学系が制御されて、ズーム量に対応した分だけズーミングが行われることになる。
【0066】
ビデオカメラ1およびパンチルタ2の設定が終了すると、CPU31は、ビデオカメラ1から出力される画像をビデオキャプチャ32によりディジタルデータ(画像データ)に変換し、ネットワークインタフェース37を介して、パーソナルコンピュータ5に対して送信する。このようにして送信された画像データは、ステップS23以降の処理により受信されて表示されることになる。なお、その詳細については後述する。
【0067】
図4に戻って、ステップS16では、枠102およびプレビュー画像104が画面上から消去される。即ち、現在撮影されている画像のみが画面上に表示されることになる。そして、ステップS3の処理に戻り、前述の場合と同様の処理を繰り返すことになる。
【0068】
ところで、ステップS17において、マウス7が移動されていない(NO)と判定された場合には、ステップS23に進むことになる。
【0069】
ステップS23では、CPU51は、ワークステーション3から伝送されてきた画像データを受信したか否かを判定する。その結果、画像データを受信していない(NO)と判定した場合には、ステップS26に進み、エラーが生じたことを示すメッセージ(例えば、「通信エラーが発生しました。」)をCRTモニタ6に表示し(イベントが発生している場合に、ステップS4,S12,S17,S23の全てにおいてNOと判定されることはあり得ないので)、ステップS3に戻って、前述の場合と同様の処理を繰り返す。また、ステップS23において、画像データを受信した(YES)と判定した場合にはステップS24に進む。
【0070】
ステップS24においては、CPU51は、ネットワークインタフェース50により受信した画像データを、現在撮影中の画像102として、CRTモニタ6に表示する。そして、ステップS25に進み、CPU51は、次の画像の送信を要求するコマンドを、ネットワークインタフェース50を介して、ワークステーション3に対して送出する。そして、ステップS3に戻り、前述の場合と同様の処理を繰り返すことになる。
【0071】
次に、以上の処理を更に具体的に説明する。
【0072】
いま、パーソナルコンピュータ5の電源が投入されたとすると、ステップS1において、初期化が実行されるとともに、ワークステーション3との間に回線が閉結される。そして、ステップS2において、パーソナルコンピュータ5は、ワークステーション3に対してパノラマ画像を伝送するように要求するコマンドを送信し、その結果として受信されたパノラマ画像をCRTモニタ6に表示する(図5参照)とともに、ハードディスクドライブ56に格納する。
【0073】
ステップS3では、イベント待ちの状態となり、マウスが操作されたり、画像データが受信されるまで待機状態となる。
【0074】
いま、例えば、図5に示す画面(正確には、プレビュー画像104と枠102とが表示されていない画面)において、枠101の上においてマウス7のボタンが押されたとすると、ステップS3からステップS4に進み、そこでYESと判定されて、ステップS5に進む。
【0075】
ステップS5では、マウス7の位置が取得され、ステップS6では、この取得された位置により、マウスカーソルが枠101の上に存在しているか否かが判定される。いま、枠101の上に存在しているので、YESと判定されてステップS10に進む。
【0076】
ステップS10では、枠102が画面上に新たに表示され(枠101と同じ位置に表示され)、マウス7の動きに応じて枠102の画角(大きさ)が適宜変更される処理が開始されることになる。
【0077】
また、枠101の枠内にマウスカーソルがある場合に、マウス7のボタンが押されたときには、ステップS7においてYESと判定され、ステップS11に進む。ステップS11では、枠102が新たに表示され(枠101と同じ位置に表示され)、画角が一定に保たれたままで、枠102がマウス7に追従して移動される処理が開始されることになる。
【0078】
更に、枠101とは異なる領域においてマウス7のボタンが押された場合には、ボタンが押された場合のカーソルの位置を中心として、枠101と同様の大きさの枠102が表示される。そして、ステップS9では、プレビュー画像104が生成され、CRTモニタ6の画面上に表示されることになる。
【0079】
そして、新たな枠102が表示された状態において、マウス7がドラッグされると、ボタンはリリースされていないので、ステップS12ではNOと判定され、ステップS17に進み、そこで、YESと判定され、ステップS18に進む。
【0080】
ステップS18では、ドラッグ中であるのでYESと判定され、ステップS19に進む。ステップS19では、画角を変更する処理が行われているか否かが判定され、画角を変更する処理を実行中である場合(ドラッグの開始点が枠101の上であった場合)には、ステップS22に進み、枠102の大きさがマウス7移動距離に応じて変更される。また、その他の場合(ドラッグの開始点が枠102の内部または外部である場合)は、枠102をマウス7に応じて移動させる。そして、ステップS21において、プレビュー画像104が画面上に表示されることになる。
【0081】
従って、マウス7がドラッグされている際には、枠102により囲繞されている領域に対応する画像が、プレビュー画像104として画面上に次々と表示されるので、操作者は、この画像を参照しながら、実際に見たい部分を検索することが可能となる。
【0082】
そして、実際に見たい部分が決定した場合には、マウス7のドラッグが中止されて、ボタンがリリースされるので、ステップS12においてYESと判定され、ステップS14において、現在の枠102の大きさと位置からズーム量、パン量、および、チルト量が算出され、ワークステーション3に対して送信される。その結果、ビデオカメラ1の光軸の方向が制御されるとともに、ズーミングが行われ、得られた画像データがインターネット4を介して伝送されてくる。
【0083】
画像データを受信したパーソナルコンピュータ5は、ステップS23において、画像を受信した(YES)と判定し、ステップS24に進み、受信した画像をCRTモニタ6に表示する。そして、ステップS25に進み、次の画像の送信を要求する。以下、同様の処理が繰り返され、ビデオカメラ1により撮像された画像が次々と伝送され、CRT6の画面に現在撮影中の画像102として表示されることになる。
【0084】
なお、図7に示すように、枠101と枠102の一部が重なっている場合には、重なっている部分の領域の画像は、ビデオカメラ1により現在撮影されて伝送されてきている画像を表示し、また、それ以外の領域は、パノラマ画像から抽出して表示するようにしてもよい。そのような方法によれば、枠102と枠101の領域が重なっている場合には、一部動画を表示することが可能となる。
【0085】
更に、図8に示すように、現在撮影中の画像の一部の領域を拡大(ズーミング)する場合には、パノラマ画像を用いずに、ビデオカメラ1により撮像されて伝送されて来ている画像データを拡大して表示するようにしてもよい。その場合、元の画像を構成している各画素を所定倍数の画素により表現する処理(アップコンバート処理)を行うようにすれば、画像を動画として表示することも可能である。
【0086】
更にまた、図9に示すように、ワークステーション3側から複数の画像が既に伝送されきている場合には、パノラマ画像を用いる代わりに、これらの画像を用いてプレビュー画像104を表示させることも可能である。
【0087】
即ち、パーソナルコンピュータ5において、何回かの操作(ビデオカメラ1を制御する操作)が実行され、ワークステーション3から異なる複数の画像が伝送された場合には、ハードディスクドライブ56には、例えば、図9に示すように画像A乃至Lが格納されている。そのような場合には、パノラマ画像の代わりに最新の画像である画像A乃至Lを用いることができる。
【0088】
そのような場合の動作について、図10および図11のフローチャートを参照して説明する。
【0089】
なお、以下の実施の形態においては、ワークステーション3から伝送されてくる画像データには、その画像データの撮影情報を示す付帯情報が付加されおり、パーソナルコンピュータ5のCPU51は、付帯情報が付加された画像データを受信して、ハードディスクドライブ56に格納する。付加情報は、パンチルタの制御量(パン量およびチルト量)、ホワイトバランス値、露出値、ズーム値、フォーカス値、および、撮影がなされた日時などから構成される情報である。
【0090】
図10に示す処理は、図4に示すステップS9およびステップS21に該当する処理であり、これらの処理を以下に示す処理により置換することにより、パノラマ画像の代わりに最新の画像を用いてプレビュー画像を表示することが可能となる。
【0091】
図10に示す処理が実行されると、ステップS40において、パーソナルコンピュータ5のCPU51は、生成しようとするプレビュー画像(以下、適宜目的画像と記述する)の設定情報を取得する。即ち、図4のステップS8,S19,S22において取得された枠102の画角および位置を取得する。また、生成しようとする目的画像の撮像条件(例えば、ホワイトバランス値、露出値、ズーム値など)を、例えば、図12に示すような設定画面において入力する。
【0092】
図12に示す設定画面では、ホワイトバランス値、露出値、および、ズーム値がそれぞれ対応するスライダを適宜上下することにより入力されるようになされている。例えば、画面左端のホワイトバランスでは、スライダ200を上端まで移動させた場合には、ホワイトバランス値は6000゜Kに設定される。また、スライダ200を下端まで移動させた場合には、ホワイトバランス値は、3000゜Kに設定される。
【0093】
図10に戻って、ステップS41では、CPU51は、ハードディスクドライブ56に格納されている付帯情報を参照し、目的画像を生成する際に必要な画角を含んでいる画像データ(以下、適宜、元画像と記述する)を検索する。即ち、図13に示すように、太枠で示す目的画像を生成する場合には、画像A乃至Dが検索されることになる。
【0094】
続くステップS42においては、生成しようとする目的画像を、同一の元画像から生成することができる領域に分割する。即ち、図13に示すように、目的画像に対応する領域を領域1乃至領域10に分割する。そして、ステップS43に進む。
【0095】
ステップS43では、領域1乃至10のそれぞれの領域において最適な元画像を選択し、選択した元画像に対して所定の変換処理を施して合成する。なお、この処理の詳細については図11を参照して後述する。
【0096】
ステップS44においては、ステップS43において合成された画像がCRTモニタ6に表示されることになる。
【0097】
次に、図11を参照してステップS43の処理の詳細について説明する。
【0098】
この処理が実行されるとステップS60において、CPU51は、変数Dに対して分割された領域の数(図13の例では値“10”)を代入する。そして、ステップS61に進む。
【0099】
ステップS61では、CPU51は、処理回数を格納する変数iを値0に初期設定する。
【0100】
続くステップS62においては、CPU51は、第i番目の領域において、最適な元画像を選択する。例えば、i=5であるとすると、対象となる領域は領域5となる。この領域5を含む元画像としては、画像Aと画像Bとが存在する。画像Bは画像Aよりも狭い撮像範囲で撮影されているので、例えば、最適な画像としては解像度が高い画像Bの方が選択されることになる。
【0101】
なお、撮影画像が時事刻々と変化する場合には、例えば、撮影時刻が目標の時刻により近い方を選択するようにしてもよい。
【0102】
また、元画像が存在しない領域(例えば、図13の領域6)は、例えば、画像を表示しないようにするか、または、この部分だけパノラマ画像から取得するようにしてもよい。
【0103】
ステップS63においては、CPU51は、ステップS62において選択された元画像の付帯情報を参照して、この選択された画像が、生成しようとする目的画像と同一の倍率の画像となるように、選択された画像に対して拡大または縮小処理を行う。
【0104】
ステップS64では、CPU51は、ステップS62において選択された元画像が、生成しようとする目的画像の撮影条件と同一になるように、選択された元画像に対して所定の変換処理を施す。なお、この処理の詳細については後述する。
【0105】
ステップS65では、CPU51は、変換処理が施された元画像をフレームメモリ55の所定の領域に書き込むとともに、既にフレームメモリ55上に格納されている他の元画像との境界面が自然に連接されるようにスムージング処理を施す。
【0106】
ステップS66では、変数iの値が1だけインクリメントされ、ステップS67において、変数iの値が分割された領域数Dよりも小さいか否かが判定され、その結果、iの値がDの値よりも小さい(YES)と判定された場合には、ステップS62に戻り、前述の場合と同様の処理が繰り返される。また、iの値がDの値以上である(NO)と判定された場合には、ステップS44の処理に復帰(リターン)する。
【0107】
図14は、ステップS64において実行される変換処理の詳細をブロック図として示したものである。この図では、図の左端から元画像が入力され、種々の変換が施された後、図の右端から変換後の画像(目的画像)が出力される。なお、図14の上部に示されているシグナルフローは、図の下部に示されているブロック図の概要を説明している。
【0108】
以下では、図14の上部に示されているシグナルフローについて説明した後、図の下部に示されているブロック図を参照して変換処理について詳述する。
【0109】
この図において、入力された元画像の画素値500は、変換部501に供給される。一方、元画像の撮影条件503は、比較部504に入力される。また、この比較部504には目的画像の撮影条件505も入力されている。比較部504は、元画像の撮影条件503と目的画像の撮影条件505とを比較し、その比較結果を変換部501に対して供給する。
【0110】
変換部501は、目的画像の撮影条件と同一になるように、入力された元画像の画素値500に対して変換処理を施す。そして、得られた画素値を目的画像の画素値502として出力する。以上の処理の結果、入力された元画像の画素値500は、目的画像と同一の撮影条件の画像に変換されて出力される。従って、全ての領域(図13では領域1乃至10)の画素値に対して同様の処理を繰り返すことにより、異なる撮影条件において撮影された画像から、同一の撮影条件において撮影された1枚の画像を近似的に合成することが可能となる。
【0111】
次に、図14の下部に示す図について説明する。
【0112】
R,G,Bの三原色から構成される元画像の画素値400(元画像の画素値500に対応する)は、デガンマ処理部300−1乃至300−3にそれぞれ供給される。デガンマ処理部300−1乃至300−3は、ガンマ補正が施されている画素値に対して逆ガンマ処理を施し、輝度に比例した値を有する画素値に変換する。
【0113】
乗算部301−1乃至301−3は、デガンマ処理部300−1乃至300−3から出力された画素値に対して露出値較正処理部308の出力を乗算し、得られた画素値を出力する。露出値較正処理部308は、元画像の露出値307と目的画像の露出値311とを比較し、例えば、AGC(Auto Gain Control)と絞りが固定であるならば、電子シャッタの時間の比を乗算部301−1乃至301−3に出力する。その結果、乗算部301−1乃至301−3から出力される画素値は、目的画像と同一の露出値により撮影された場合の想定値に変換される。
【0114】
飽和処理部302−1乃至302−3は、CCDの各色の画素の飽和特性を考慮した変換を施す。即ち、CCDは所定以上の強度の光が入射されると出力が飽和するので、乗算部301−1乃至301−3から出力された画素値が同様の特性を有するようにクリッピング処理を施す。
【0115】
色温度デコード処理部309は、元画像のホワイトバランス値306と目的画像のホワイトバランス値310とを比較し、各色毎の補正量を算出し、算出された補正量を乗算部303−1乃至303−3に対して出力する。乗算部303−1乃至303−3は、飽和処理部302−1乃至302−3から出力される画素値に対して色温度デコード処理部309から出力される補正量を乗算して出力する。
【0116】
色消し処理部304は、画素値が高輝度または低輝度の範囲であることに起因して色の再現が困難である場合には、色を消す処理を行い、得られた画素値を出力する。ガンマ処理部305−1乃至305−3は、色消し処理が施された画素値に対してガンマ処理を施し、R’,G’,B’の画素値(目的画像の画素値)として出力する。
【0117】
このような処理により、目的画像の撮影条件と元画像の撮影条件に応じて元画像の画素値が変換されて出力されることになる。即ち、以上の処理を要約すると、ビデオカメラ1の内部で行われる信号処理をクライアント側(パーソナルコンピュータ5側)で再度実行し、目的画像の撮影条件と同一の条件で撮影された場合に得られると想定される画像を生成する。従って、以上のような実施の形態によれば撮影条件の異なる複数の元画像から、所定の撮影条件下において撮影されたのと同等の画像(目的画像)に変換することが可能となる。
【0118】
以上の実施の形態によれば、ビデオカメラ1とパーソナルコンピュータ5が通信回線などにより接続されている場合、操作者側に存在しているパノラマ画像や既に伝送されている画像を用いて操作の結果を予測して表示するようにしたので、所望の画像を得るための試行錯誤が操作者付近ですべて行われることになり、制御を迅速に行うことが可能となる。また、確定された制御信号のみが伝送されることになるので、ビデオカメラ1に余計な負担がかかることを防止することも可能となる。
【0119】
なお、以上の実施の形態においては、画像データの変換処理と合成処理をパーソナルコンピュータ5において行うようにしたが、例えば、同様の処理をワークステーション3において実行することも可能である。その場合、ワークステーション3のハードディスクドライブ33に格納されている画像から合成処理を行うことから、パーソナルコンピュータ5側に画像が多数伝送されていない場合においても、上述のような処理を実行することができる。
【0120】
また、以上の実施の形態においては、パーソナルコンピュータ5によりビデオカメラ1を制御するようにしたが、ワークステーション3を画像データベースと見なし、所望の画像データを検索する際に、以上の実施の形態を適用するようにしてもよい。そのような実施の形態によれば、過去に遡って画像を検索したり、実際には撮像していない方向または倍率の画像を生成したり、撮像条件を変えた画像を生成することも可能である。
【0121】
なお、明細書中において、伝送媒体は、FD,CD−ROMなどの情報記録媒体の他、インターネット、ディジタル衛星などのネットワーク伝送媒体も含まれる。
【0122】
【発明の効果】
請求項1に記載の制御装置および請求項5に記載の制御方法によれば、撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像が記録され、撮像装置を設定するための設定情報が入力され、入力された設定情報に応じて撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、記録されたパノラマ画像を参照して予測し、予測ステップにより得られた画像を1つの表示装置に出力し、表示装置に表示されている画像を参照して、入力された設定情報に対応する制御を実行するか否かを決定し、制御を実行することが決定された場合には、入力された設定情報に対応する制御信号を伝送媒体を介して撮像装置に送信し、撮像装置は、少なくともパン機能、チルト機能及びズーム機能をさらに備え、撮像範囲予測手段は、入力されたパン量、チルト量及びズーム量より再設定された撮像範囲の画像を予測するようにしたので、不要な制御コマンドが撮像装置に伝送されることを防止することが可能となり、その結果、撮像装置を円滑に制御することが可能となる。
【0123】
請求項6に記載の受信装置によれば、少なくともパン機能、チルト機能及びズーム機能を備える撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像が記録され、制御装置から伝送媒体を介して伝送されてきた撮影装置を設定するための設定情報を受信し、設定情報として受信された、パン量、チルト量及びズーム量により撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、記録されたパノラマ画像を参照して予測し、予測された画像を制御装置に送信し、制御装置から設定情報に応じて撮像装置を設定する制御命令を受信した場合には、設定情報に応じて撮像装置を設定するようにしたので、設定情報に応じて撮像装置が再設定された場合に得られる画像を予測して供給するようにしたので、予測された画像を参照して、目的の画像が得られるように迅速に制御を行うことが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態の構成例を示す図である。
【図2】図1に示すワークステーション3の詳細な構成例を示すブロック図である。
【図3】図1に示すパーソナルコンピュータ5の詳細な構成例を示すブロック図である。
【図4】図1に示すパーソナルコンピュータ5において実行される処理の一例を説明するフローチャートである。
【図5】図4に示す処理が実行された場合において、CRTモニタ6に表示される画像の表示例を示す図である。
【図6】図4に示す処理が実行された場合において、CRTモニタ6に表示される枠102の一例を示す図である。
【図7】図4に示す処理が実行された場合において、枠101と枠102の一部が重なった場合には撮影画像を用いるようにしたときの表示例である。
【図8】図4に示す処理が実行された場合において、撮影画像から予測画像を予測するときの表示例を示す図である。
【図9】撮影条件が異なる複数の画像から予測画像を生成する場合の予測画像と元画像との関係を示す図である。
【図10】撮影条件が異なる複数の画像から予測画像を生成する場合の処理の一例を説明するフローチャートである。
【図11】図9に示す合成処理の詳細を説明するフローチャートである。
【図12】撮影条件を入力するための画面の表示例を示す図である。
【図13】画像の分割の一例を説明する図である。
【図14】撮影条件の変換処理の一例を示すシグナルフロー図である。
【符号の説明】
7 マウス(入力手段), 30 インタフェース(設定手段), 31 CPU(予測手段、設定手段、合成手段), 33 ハードディスクドライブ(第1の記憶手段、第2の記憶手段), 37 ネットワークインタフェース(受信手段、送信手段), 50 ネットワークインタフェース(送信手段), 51CPU(予測手段、決定手段、選択手段、検索手段、変換手段、合成手段),55 フレームメモリ(出力手段), 56 ハードディスクドライブ(第1の記憶手段、第2の記憶手段)

Claims (6)

  1. 伝送媒体を介して接続されている撮像装置の撮像範囲を制御する制御装置において、
    前記撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像を記録する記録手段と、
    前記撮像装置を設定するための設定情報が入力される入力手段と、
    前記入力手段から入力された設定情報に応じて前記撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、前記記録手段に記録されたパノラマ画像を参照して予測する撮像範囲予測手段と、
    前記撮像範囲予測手段により得られた画像を1つの表示装置に出力する出力手段と、
    前記表示装置に表示されている画像を参照して、前記入力手段より入力された設定情報に対応する制御を実行するか否かを決定する決定手段と、
    前記決定手段によって制御を実行することが決定された場合には、前記入力手段より入力された設定情報に対応する制御信号を前記伝送媒体を介して前記撮像装置に送信する送信手段とを備え、
    前記撮像装置は、少なくともパン機能、チルト機能及びズーム機能をさらに備え、
    前記撮像範囲予測手段は、前記入力手段より入力されたパン量、チルト量及びズーム量より再設定された撮像範囲の画像を予測する
    ことを特徴とする制御装置。
  2. 前記設定情報は、前記撮像装置の撮像条件であり、
    前記撮像範囲予測手段は、前記撮像条件が変更された場合に得られる被写体の画像を予測する
    ことを特徴とする請求項1に記載の制御装置。
  3. 前記設定情報は、前記撮像装置の撮像方向または撮像画角であり、
    前記撮像範囲予測手段は、前記撮像装置の撮像方向または撮像画角が変更された場合に得られる被写体の画像を予測する
    ことを特徴とする請求項1に記載の制御装置。
  4. 前記撮像手段より伝送されてくる画像を記憶する第1の記憶手段と、
    前記撮像装置より伝送されている画像が撮影された場合の前記設定情報を記憶する第2の記憶手段と、
    前記第1の記憶手段に記憶された複数の画像の中から所定の画像を選択する選択手段とを更に備え、
    前記撮像範囲予測手段は、前記第1の記憶手段に記憶されている画像の中から、所定の画像を前記選択手段により選択し、第2の記憶手段に記憶されている前記設定情報と選択された画像とを元にして前記被写体の画像を予測する
    ことを特徴とする請求項1に記載の制御装置。
  5. 伝送媒体を介して接続されている、少なくともパン機能、チルト機能及びズーム機能を備える撮像装置の撮像範囲を制御する制御方法において、
    前記撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像を記録する記録ステップと、
    前記撮像装置を設定するための設定情報が入力される入力ステップと、
    前記設定情報として前記入力ステップから入力されたパン量、チルト量及びズーム量により前記撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、前記記録ステップで記録されたパノラマ画像を参照して予測する撮像範囲予測ステップと、
    前記撮像範囲予測ステップにより得られた画像を表示装置に出力する出力ステップと、
    前記表示装置に表示されている画像を参照して、前記入力ステップより入力された設定情報に対応する制御を実行するか否かを決定する決定ステップと、
    前記決定ステップによって制御を実行することが決定された場合には、前記入力ステップより入力された設定情報に対応する制御信号を前記伝送媒体を介して前記撮像装置に送信する送信ステップと
    を備えることを特徴とする制御方法。
  6. 制御装置から伝送媒体を介して伝送されてきた制御信号を受信し、少なくともパン機能、チルト機能及びズーム機能を備える撮像装置を制御する受信装置において、
    前記撮像装置によって予め撮像された撮影可能な範囲のパノラマ画像を記録する記録手段と、
    前記制御装置から前記伝送媒体を介して伝送されてきた前記撮像装置の設定情報を受信する受信手段と、
    前記設定情報として前記受信手段により受信された、パン量、チルト量及びズーム量により前記撮像装置の撮像範囲が再設定された場合に得られる被写体の画像を、前記記録手段に記録されたパノラマ画像を参照して予測する撮像範囲予測手段と、
    前記撮像範囲予測手段により得られた画像を前記制御装置に送信する送信手段と、
    前記制御装置から前記設定情報に応じて前記撮像装置を設定する制御命令を受信した場合には、前記設定情報に応じて前記撮像装置を設定する設定手段と
    を備えることを特徴とする受信装置。
JP18651797A 1997-07-11 1997-07-11 制御装置、制御方法、および受信装置 Expired - Fee Related JP4131340B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP18651797A JP4131340B2 (ja) 1997-07-11 1997-07-11 制御装置、制御方法、および受信装置
US09/111,337 US6545708B1 (en) 1997-07-11 1998-07-07 Camera controlling device and method for predicted viewing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18651797A JP4131340B2 (ja) 1997-07-11 1997-07-11 制御装置、制御方法、および受信装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005253815A Division JP4281011B2 (ja) 2005-09-01 2005-09-01 制御装置および制御方法

Publications (2)

Publication Number Publication Date
JPH1132246A JPH1132246A (ja) 1999-02-02
JP4131340B2 true JP4131340B2 (ja) 2008-08-13

Family

ID=16189891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18651797A Expired - Fee Related JP4131340B2 (ja) 1997-07-11 1997-07-11 制御装置、制御方法、および受信装置

Country Status (2)

Country Link
US (1) US6545708B1 (ja)
JP (1) JP4131340B2 (ja)

Families Citing this family (120)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161619B1 (en) * 1998-07-28 2007-01-09 Canon Kabushiki Kaisha Data communication system, data communication control method and electronic apparatus
JP3762149B2 (ja) * 1998-07-31 2006-04-05 キヤノン株式会社 カメラ制御システム、カメラサーバ、カメラサーバの制御方法、カメラ制御方法、及びコンピュータ読み取り可能な記録媒体
JP4194191B2 (ja) * 1999-10-06 2008-12-10 キヤノン株式会社 出力制御方法及び装置並びに記憶媒体
JP2002009868A (ja) * 2000-06-19 2002-01-11 Megafusion Corp 情報伝送システム、情報管理装置、および設定情報配信方法
TW522374B (en) * 2000-08-08 2003-03-01 Semiconductor Energy Lab Electro-optical device and driving method of the same
US6992652B2 (en) * 2000-08-08 2006-01-31 Semiconductor Energy Laboratory Co., Ltd. Liquid crystal display device and driving method thereof
US7180496B2 (en) 2000-08-18 2007-02-20 Semiconductor Energy Laboratory Co., Ltd. Liquid crystal display device and method of driving the same
US6987496B2 (en) * 2000-08-18 2006-01-17 Semiconductor Energy Laboratory Co., Ltd. Electronic device and method of driving the same
TW518552B (en) * 2000-08-18 2003-01-21 Semiconductor Energy Lab Liquid crystal display device, method of driving the same, and method of driving a portable information device having the liquid crystal display device
TW514854B (en) * 2000-08-23 2002-12-21 Semiconductor Energy Lab Portable information apparatus and method of driving the same
US7184014B2 (en) * 2000-10-05 2007-02-27 Semiconductor Energy Laboratory Co., Ltd. Liquid crystal display device
US6747623B2 (en) 2001-02-09 2004-06-08 Semiconductor Energy Laboratory Co., Ltd. Liquid crystal display device and method of driving the same
US20030043172A1 (en) * 2001-08-24 2003-03-06 Huiping Li Extraction of textual and graphic overlays from video
TWI273539B (en) 2001-11-29 2007-02-11 Semiconductor Energy Lab Display device and display system using the same
JP3913534B2 (ja) * 2001-11-30 2007-05-09 株式会社半導体エネルギー研究所 表示装置及びこれを用いた表示システム
JP2003198903A (ja) * 2001-12-25 2003-07-11 Mazda Motor Corp 撮像方法、撮像システム、撮像制御サーバ、並びに撮像プログラム
US20030185302A1 (en) * 2002-04-02 2003-10-02 Abrams Thomas Algie Camera and/or camera converter
US7212574B2 (en) * 2002-04-02 2007-05-01 Microsoft Corporation Digital production services architecture
US20030185301A1 (en) * 2002-04-02 2003-10-02 Abrams Thomas Algie Video appliance
JP4067878B2 (ja) * 2002-06-06 2008-03-26 株式会社半導体エネルギー研究所 発光装置及びそれを用いた電気器具
JP2005020098A (ja) * 2003-06-23 2005-01-20 Canon Inc 携帯端末装置、携帯端末装置を制御するためのプログラム、及び画像配信システム
US7663666B2 (en) * 2003-06-23 2010-02-16 Canon Kabushiki Kaisha Operation at mobile terminal when communicating with remote camera
US7656429B2 (en) * 2004-02-04 2010-02-02 Hewlett-Packard Development Company, L.P. Digital camera and method for in creating still panoramas and composite photographs
JP3956946B2 (ja) * 2004-03-02 2007-08-08 セイコーエプソン株式会社 画像データの色変換処理
US8463654B1 (en) 2009-05-01 2013-06-11 Clifford R. David Tour site image capture and marketing system and associated methods
US8260674B2 (en) * 2007-03-27 2012-09-04 David Clifford R Interactive image activation and distribution system and associate methods
EP1875402A2 (en) * 2005-04-15 2008-01-09 Clifford R. David Interactive image activation and distribution system and associated methods
US9214032B2 (en) 2005-04-15 2015-12-15 Freeze Frame, Llc Interactive guest image capture using video wall/floor/ceiling displays for selections of background scenes, and selection/distribution of customized
US7966223B2 (en) * 2005-04-15 2011-06-21 David Clifford R Interactive image activation and distribution system and associated methods
US9270840B2 (en) 2011-08-24 2016-02-23 Freeze Frame, Llc Site image capture and marketing system and associated methods
US9270841B2 (en) 2005-04-15 2016-02-23 Freeze Frame, Llc Interactive image capture, marketing and distribution
KR100710752B1 (ko) * 2005-06-03 2007-04-24 삼성전자주식회사 파노라마 영상 생성 시스템 및 장치 그리고 그 생성방법
US7643064B1 (en) * 2005-06-21 2010-01-05 Hewlett-Packard Development Company, L.P. Predictive video device system
US20080036894A1 (en) * 2006-08-10 2008-02-14 Mohammed Alsaud Comparison apparatus and method for obtaining photographic effects
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US8315305B2 (en) 2010-03-26 2012-11-20 Brain Corporation Systems and methods for invariant pulse latency coding
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9193075B1 (en) 2010-08-26 2015-11-24 Brain Corporation Apparatus and methods for object detection via optical flow cancellation
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9047568B1 (en) 2012-09-20 2015-06-02 Brain Corporation Apparatus and methods for encoding of sensory data using artificial spiking neurons
US8990133B1 (en) 2012-12-20 2015-03-24 Brain Corporation Apparatus and methods for state-dependent learning in spiking neuron networks
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9070039B2 (en) 2013-02-01 2015-06-30 Brian Corporation Temporal winner takes all spiking neuron network sensory processing apparatus and methods
US8725658B2 (en) 2011-09-21 2014-05-13 Brain Corporation Elementary network description for efficient memory management in neuromorphic systems
US9412064B2 (en) 2011-08-17 2016-08-09 Qualcomm Technologies Inc. Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update
US8719199B2 (en) 2011-09-21 2014-05-06 Brain Corporation Systems and methods for providing a neural network having an elementary network description for efficient implementation of event-triggered plasticity rules
US8725662B2 (en) 2011-09-21 2014-05-13 Brain Corporation Apparatus and method for partial evaluation of synaptic updates based on system events
US9104973B2 (en) 2011-09-21 2015-08-11 Qualcomm Technologies Inc. Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel
US9460387B2 (en) 2011-09-21 2016-10-04 Qualcomm Technologies Inc. Apparatus and methods for implementing event-based updates in neuron networks
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US9146546B2 (en) 2012-06-04 2015-09-29 Brain Corporation Systems and apparatus for implementing task-specific learning using spiking neurons
US9156165B2 (en) 2011-09-21 2015-10-13 Brain Corporation Adaptive critic apparatus and methods
US9117176B2 (en) 2011-09-21 2015-08-25 Qualcomm Technologies Inc. Round-trip engineering apparatus and methods for neural networks
US9213937B2 (en) 2011-09-21 2015-12-15 Brain Corporation Apparatus and methods for gating analog and spiking signals in artificial neural networks
US10210452B2 (en) 2011-09-21 2019-02-19 Qualcomm Incorporated High level neuromorphic network description apparatus and methods
US9104186B2 (en) 2012-06-04 2015-08-11 Brain Corporation Stochastic apparatus and methods for implementing generalized learning rules
US9098811B2 (en) 2012-06-04 2015-08-04 Brain Corporation Spiking neuron network apparatus and methods
CN103096141B (zh) 2011-11-08 2019-06-11 华为技术有限公司 一种获取视觉角度的方法、装置及系统
US9129221B2 (en) 2012-05-07 2015-09-08 Brain Corporation Spiking neural network feedback apparatus and methods
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9256823B2 (en) 2012-07-27 2016-02-09 Qualcomm Technologies Inc. Apparatus and methods for efficient updates in spiking neuron network
US9256215B2 (en) 2012-07-27 2016-02-09 Brain Corporation Apparatus and methods for generalized state-dependent learning in spiking neuron networks
US9440352B2 (en) 2012-08-31 2016-09-13 Qualcomm Technologies Inc. Apparatus and methods for robotic learning
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US8793205B1 (en) 2012-09-20 2014-07-29 Brain Corporation Robotic learning and evolution apparatus
US9189730B1 (en) 2012-09-20 2015-11-17 Brain Corporation Modulated stochasticity spiking neuron network controller apparatus and methods
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US9082079B1 (en) 2012-10-22 2015-07-14 Brain Corporation Proportional-integral-derivative controller effecting expansion kernels comprising a plurality of spiking neurons associated with a plurality of receptive fields
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9183493B2 (en) 2012-10-25 2015-11-10 Brain Corporation Adaptive plasticity apparatus and methods for spiking neuron network
US9111226B2 (en) 2012-10-25 2015-08-18 Brain Corporation Modulated plasticity apparatus and methods for spiking neuron network
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9123127B2 (en) 2012-12-10 2015-09-01 Brain Corporation Contrast enhancement spiking neuron network sensory processing apparatus and methods
US9195934B1 (en) 2013-01-31 2015-11-24 Brain Corporation Spiking neuron classifier apparatus and methods using conditionally independent subsets
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US8996177B2 (en) 2013-03-15 2015-03-31 Brain Corporation Robotic training apparatus and methods
US9008840B1 (en) 2013-04-19 2015-04-14 Brain Corporation Apparatus and methods for reinforcement-guided supervised learning
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9489623B1 (en) 2013-10-15 2016-11-08 Brain Corporation Apparatus and methods for backward propagation of errors in a spiking neuron network
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9364950B2 (en) 2014-03-13 2016-06-14 Brain Corporation Trainable modular robotic methods
US9630317B2 (en) 2014-04-03 2017-04-25 Brain Corporation Learning apparatus and methods for control of robotic devices via spoofing
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10194163B2 (en) 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US9579790B2 (en) 2014-09-17 2017-02-28 Brain Corporation Apparatus and methods for removal of learned behaviors in robots
US9821470B2 (en) 2014-09-17 2017-11-21 Brain Corporation Apparatus and methods for context determination using real time sensor data
US9860077B2 (en) 2014-09-17 2018-01-02 Brain Corporation Home animation apparatus and methods
US9849588B2 (en) 2014-09-17 2017-12-26 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9870617B2 (en) 2014-09-19 2018-01-16 Brain Corporation Apparatus and methods for saliency detection based on color occurrence analysis
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
JP6478777B2 (ja) * 2015-04-13 2019-03-06 キヤノン株式会社 制御装置及びその制御方法、プログラム
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
US10295972B2 (en) 2016-04-29 2019-05-21 Brain Corporation Systems and methods to operate controllable devices with gestures and/or noises

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07135594A (ja) * 1993-11-11 1995-05-23 Canon Inc 撮像制御装置
JP3745000B2 (ja) * 1995-02-03 2006-02-15 キヤノン株式会社 画像通信装置及びその制御方法
US6356303B1 (en) * 1997-02-05 2002-03-12 Canon Kabushiki Kaisha Camera control system with zoom lens control based on transmission time

Also Published As

Publication number Publication date
JPH1132246A (ja) 1999-02-02
US6545708B1 (en) 2003-04-08

Similar Documents

Publication Publication Date Title
JP4131340B2 (ja) 制御装置、制御方法、および受信装置
WO2021073331A1 (zh) 基于终端设备的变焦虚化图像获取方法和装置
JP3786242B2 (ja) 画像処理方法および装置、画像再生方法および装置並びにその方法に使用する画像確認装置
JP3849645B2 (ja) 監視装置
US6769131B1 (en) Image processing apparatus and method, image distribution system and storage medium
JP2011055170A (ja) 情報処理装置及びその制御方法
JP2008092297A (ja) 画像処理装置、画像処理プログラム、画像製造方法、及び記録媒体
JP2002112008A (ja) 画像処理システム及び画像処理プログラムが記録された記録媒体
JP2008077501A (ja) 画像処理装置及び画像処理制御プログラム
JP3780045B2 (ja) カメラ制御システム及びカメラ制御システムの制御方法
JP4583717B2 (ja) 撮像装置及び方法、画像情報提供システム、プログラム、並びに制御装置
JP3444281B2 (ja) 画像処理システム、撮像装置、画像処理方法及びその方法の処理プログラムが記録された記録媒体
JP2003348500A (ja) 投射画像の調整方法、画像投射方法および投射装置
JPH10336494A (ja) ズーム表示機能付デジタルカメラ
JP3994469B2 (ja) 撮像装置、表示装置及び記録装置
JP4281011B2 (ja) 制御装置および制御方法
CN107295247B (zh) 图像记录装置及其控制方法
JP2000217022A (ja) 電子スチルカメラおよびその画像デ―タ記録再生方法
JP2004072207A (ja) 画像信号処理装置及び電子カメラ
JP2007306284A (ja) 撮像システム及び撮像装置
JP4115416B2 (ja) 画像処理方法、及び画像処理装置、及び画像処理システム、及び画像処理プログラム
JPH1079882A (ja) 画像入力装置
JPH11112844A (ja) 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体
JP2005284411A (ja) 画像処理方法、及び画像処理装置、及び画像処理システム、及び画像処理プログラム
JP2002238016A (ja) 画像処理装置、画像処理システム、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録したコンピュータ読取可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080502

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080515

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees