JP4802397B2 - 画像撮影システム、および操作装置 - Google Patents

画像撮影システム、および操作装置 Download PDF

Info

Publication number
JP4802397B2
JP4802397B2 JP2001162521A JP2001162521A JP4802397B2 JP 4802397 B2 JP4802397 B2 JP 4802397B2 JP 2001162521 A JP2001162521 A JP 2001162521A JP 2001162521 A JP2001162521 A JP 2001162521A JP 4802397 B2 JP4802397 B2 JP 4802397B2
Authority
JP
Japan
Prior art keywords
image
field
displayed
display
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001162521A
Other languages
English (en)
Other versions
JP2002354326A (ja
Inventor
健太郎 飯田
諭 姫田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2001162521A priority Critical patent/JP4802397B2/ja
Priority to US10/157,310 priority patent/US7057643B2/en
Publication of JP2002354326A publication Critical patent/JP2002354326A/ja
Application granted granted Critical
Publication of JP4802397B2 publication Critical patent/JP4802397B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N2007/145Handheld terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像撮影装置を遠隔操作して画像を撮影する際の技術に関するもので、より詳しくはそのような画像撮影方式におけるユーザの操作環境の向上に関する。
【0002】
【従来の技術】
カメラを操作することによって画像を取得するシステムにおいて、ユーザが自ら所望する位置にカメラを駆動させる場合、必要以上に操作コマンドを入力することにより、カメラの撮影範囲がユーザの所望する位置より行き過ぎるという問題がある。従来より、この問題を解決する技術として、例えば、特開平10−93855公報には、カメラの駆動可能な範囲を示すスクロールバーを画像とともに表示し、スクロールバーをポインティングディバイスにより駆動させてパン・チルト方向の操作を行うという技術が提案されている。
【0003】
【発明が解決しようとする課題】
ところが、上記の技術では、現在のカメラの視野位置と目標とする視野位置との位置関係がわからない。視野位置を変更している途中の画像を操作装置側で表示する場合、その画像がどの時点の画像なのかがわからず、ユーザが追加の操作をすべきかどうか判断ができず、誤操作を招いていた。
【0004】
本発明は、上記課題に鑑みなされたものであり、カメラを操作して画像を撮影するシステムにおいて、ユーザの誤操作を減少させ、快適な操作環境を提供することを目的とする。
【0005】
【課題を解決するための手段】
請求項1に記載の発明は、駆動部を有する画像撮影装置を操作可能な操作装置であって、前記画像撮影装置との間で通信を行う通信手段と、前記駆動部を制御して前記画像撮影装置における視野の変更を指示するための光学操作命令をユーザが入力する入力手段と、画像データを画像として表示する表示手段と、前記画像撮影装置が撮影した画像データを前記通信手段により受信して、前記表示手段に画像として表示させる表示制御手段とを備え、前記通信手段が、a-1)前記光学操作命令に応答した前記駆動部の駆動によって該駆動中に時間順次に視野の変更が行われる前記画像撮影装置の視野のうち第1の視野と、該第1の視野と重なり部分を有し、該第1の視野より時間的に後に設定される第2の視野とについて、前記第1の視野に対応した前記画像撮影装置の視野位置に関する第1の視野位置情報と、前記画像撮影装置が前記第1の視野において撮影した第1の画像データとを受信するとともに、a-2)前記第2の視野に対応した前記画像撮影装置の視野位置に関する第2の視野位置情報と、前記画像撮影装置が前記第2の視野において撮影した第2の画像データとを受信し、前記表示制御手段が、b-1)前記表示手段に前記画像撮影装置の撮影可能範囲に対応した表示領域を設定し、b-2)所定の視野に設定された前記画像撮影装置の前記表示領域における撮影範囲の外縁を視野枠として、前記表示領域のうち前記第1の視野位置情報に基づいた第1の視野枠が内包し、かつ、前記第2の視野位置情報に基づいた第2の視野枠が内包しない部分に前記第1の画像データに基づいた第1の画像を表示させるとともに、前記表示領域のうち前記第2の視野枠が内包する部分に前記第2の画像データに基づいた第2の画像を表示させ、b-3)前記光学操作命令に基づいた前記駆動部の駆動が完了した後の前記画像撮影装置の視野を前記光学操作命令に基づいて算出し、該視野の前記表示領域における外縁を目標枠として前記表示領域に表示させる。
【0006】
請求項2に記載の発明は、請求項1に記載の操作装置であって、前記表示制御手段は、前記通信手段による前記第2の視野位置情報の受信が完了し、かつ、前記第2の画像データの受信が完了していない期間では、前記表示領域のうち前記第1の視野枠に内包される部分に前記第1の画像データに基づいた画像を表示させるとともに、前記表示領域には前記第2の画像データに基づいた画像を表示させることなく前記第2の視野枠を表示させる。
【0007】
請求項3に記載の発明は、請求項1に記載の操作装置であって、前記表示制御手段は、前記第1の画像と、前記第2の画像とを相互に異なる表示形式で表示させる。
【0008】
請求項4に記載の発明は、請求項3に記載の操作装置であって、前記表示制御手段は、前記第1の画像に対して、彩度の変更、網掛けの施し、およびグラデーションの施しのうち少なくとも1つを行うことによって、前記第1の画像と、前記第2の画像とを相互に異なる表示形式で表示させる。
【0009】
請求項5に記載の発明は、画像撮影システムであって、請求項1に記載の操作装置と、前記画像撮影装置と、を備える
【0015】
【発明の実施の形態】
以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。
【0016】
<1. 第1の実施の形態>
第1の実施の形態における画像撮影システム1では、ユーザが撮影装置を操作する場合、入力された光学操作コマンドの数をカウントして、撮影装置の視野の駆動後の目標位置を求めて表示するとともに、受信した画像データに付加されている当該画像データを撮影したときの撮影装置の視野位置についても表示する。
【0017】
図1は、本発明の第1の実施の形態における画像撮影システム1の構成を示した図である。画像撮影システム1は、画像撮影装置であるカメラ(デジタルスチルカメラまたはデジタルムービーカメラ)2とカメラ2を遠隔で操作することができる操作装置としての機能を有する携帯電話3とから構成される。後述するようなパン・チルト操作はデジタルムービーカメラにおいて行われるだけでなく、デジタルスチルカメラもライブビューとして動的な画像取り込み機能を持つため、いずれのタイプのデジタルカメラであってもこの実施の形態は適用可能である。
【0018】
カメラ2は、後述するような回路類を内蔵した本体29の前方に配置された撮像系21と、携帯電話3と通信を行うためのアンテナ24とを有する。携帯電話3は、本体内に内蔵された画像処理のための回路類のほか、ユーザがカメラ2に対する光学操作コマンド等を入力する操作部31、受信した画像データを画像として表示する画像表示部32、およびカメラ2と通信を行うためのアンテナ33を有する。なお、光学操作コマンドとは、カメラ2の駆動部23を制御してカメラ2における視野の変更を指示するためのコマンド、具体的には、パン命令、チルト命令、ズーム命令等をいう。
【0019】
図2は、カメラ2の内部構成を示す図である。図2に示すように、カメラ2の撮像系21は、ズームレンズ210およびフォーカスレンズ211、ズームレンズ210を駆動する第1駆動部230、フォーカスレンズ211を駆動してフォーカスを行ったり、絞りを駆動して調節する第2駆動部231、レンズ(ズームレンズ210およびフォーカスレンズ211等)によって結像された被写体の光像を、R(赤)、G(緑)、B(青)の色成分の画像信号(各画素で受光された画素信号の信号列からなる信号をいう。)に光電変換して出力するCCD220、これらを収納する球状ユニット22、および球状ユニット22に対してパン・チルト等の駆動を行う第3駆動部232を有する。
【0020】
第3駆動部232は、球状ユニット22に対して、パン方向の±約70°の旋回(θ回転)と、チルト方向への±約70°の俯仰(φ回転)とを与えることが可能になっている。そして、これらのパン方向の回転駆動とチルト方向の回転駆動とを行うために、第3駆動部232は複数のピエゾ素子を内蔵している。また、ズーム動作のための第1駆動部230の駆動も、上記とは別のピエゾ素子によって行われる。これらのピエゾ素子にノコギリ波信号を与えることにより、ピエゾ素子による駆動の対象要素が寸動し、その繰返しによって対象要素に所要の動きが与えられる。これらの駆動機構については、たとえば特開平11−18000や、特開平11−41504に開示されている。
【0021】
なお、以下、第1駆動部230、第2駆動部231、および第3駆動部232をまとめて駆動部23と称する。駆動部23は、カメラ2の視野の変更を行うものである。
【0022】
カメラ2では、主に撮像系21、CPU25、ROM26およびRAM27により被写体の画像が画像データとして取得される。すなわち、レンズにより被写体の像がCCD220上に結像され、A/D変換部(図示せず)によりデジタルデータに変換され、RAM27に画像データとして記憶される。取得された画像データは、必要に応じてRAM27からメモリ28に転送され保存される。また、画像データはアンテナ24を介して携帯電話3に送信される。なお、これらの処理の制御はCPU25がROM26内に記憶されているプログラムに従って動作することにより行われる。
【0023】
図3は、CPU25がROM26内のプログラムに従って動作することにより実現される機能構成を他の構成とともに示す図である。図3に示す構成のうち、画像処理部250、カメラ制御部251、および通信部252が、CPU25により実現される機能を示す。
【0024】
画像処理部250は、CCD220から取得された画像データ100に色補正、画素間の補間、圧縮処理、暗号化等を行い、さらに当該画像データ100を取得した際のカメラ2の視野位置に関する情報を示す視野位置データ102を付加することにより送信画像データ101を生成する。また、必要に応じてメモリ28とRAM27との間でデータの転送を行う機能をも有する。
【0025】
カメラ制御部251は、通信部252により受信された光学操作コマンドに基づいて駆動部23を制御するとともに、駆動部23の状態を監視することによりカメラ2の視野位置に関する視野位置データ102を生成する。また、カメラ制御部251は、必要に応じてカメラ2の処理結果を示すデータ(以下、「処理結果データ」と称す。)を作成し、携帯電話3に送信するよう通信部252に指示を与える。
【0026】
通信部252は、電話回線を用いてアンテナ24を介してカメラ2と携帯電話3との間で通信を行い、視野位置データ102等を携帯電話3に送信可能であり、光学操作コマンド、あるいは非光学操作コマンド(光学操作コマンド以外のコマンド。)を受信した場合はカメラ制御部251に転送する。
【0027】
図4は、携帯電話3の構成のうち主に本発明の特徴に関係する部分を示した図である。図4に示すように、携帯電話3はアンテナ33により受信された画像データがCPU34、ROM35、およびRAM36によって処理され、画像表示部32に表示される。メモリ37には受信された画像データ等の各種データが必要に応じて記憶される。また、カメラ2に対する各種データを生成し、アンテナ33を介してカメラ2に送信する。これらのデータは、操作部31からユーザの指示を受け付けることにより生成され、また、状況に応じて携帯電話3により自動的に生成される。タイマ30はCPU34によって参照され、携帯電話3の制御に用いられる。
【0028】
図5は、携帯電話3のCPU34がROM35内のプログラムに従って動作することにより実現される機能構成を他の構成とともに示す図である。図5に示す構成のうち、画像処理部340、操作制御部341、および通信部342がCPU34により実現される機能を示す。
【0029】
画像処理部340は、通信部342により受信された画像データ110に必要な画像処理を行って画像表示部32に表示する。また、画像データ110に含まれる撮影時のカメラ2の視野位置に関する情報(カメラ2において付加された視野位置データ102)に基づいて視野位置データ102を生成するとともに、撮影時の視野位置を画像表示部32に表示する。さらに、操作制御部341から入力された光学操作コマンドに関する情報と視野位置データ102とに基づいて、入力された光学操作コマンドが実行された後のカメラ2の視野の目標位置を示す目標位置データ111を生成し、目標位置データ111に基づいてカメラ2の視野の目標位置を表示する機能をも有する。また、必要に応じてメモリ37に画像データ110を保存する。
【0030】
操作制御部341は、操作部31からユーザの入力を受け付け、必要なコマンドを生成するとともに、入力された光学操作コマンドに関する情報を画像処理部340および通信部342に転送する。
【0031】
通信部342は、カメラ2との間で電話回線を用いた通信を行う。また、受信したデータが画像データ110(送信画像データ101に相当する。)である場合にはRAM36に転送して保存し、コマンドに対する処理結果データである場合には操作制御部341に転送する。
【0032】
<1.2. カメラの動作>
図6は、カメラ2の動作を示す流れ図である。図3および図6を用いてカメラ2の動作を説明する。
【0033】
まず、カメラ制御部251がカメラ2の初期化を行い、駆動部23を初期位置に戻す(ステップS11)。初期化が終了すると、通信部252により光学操作コマンドが受信されたか否かを判定し(ステップS12)、光学操作コマンドが受信された場合は、光学操作コマンドを受信したことを示す処理結果データを送信するよう通信部252に指示を与える。通信部252は、指示に従って当該処理結果データを携帯電話3に送信する(ステップS13)。さらに、カメラ制御部251は受信した光学操作コマンドに基づいて駆動部23を駆動し、光学操作コマンドを実行する(ステップS14)。
【0034】
一方、光学操作コマンドを受信していない場合は、ステップS13およびS14をスキップする。これにより、通信部252により受信したデータが光学操作コマンドである場合には、光学操作コマンドに基づいて駆動部23を制御することができる。
【0035】
次に、カメラ制御部251は、駆動部23の状態を監視することにより、視野位置データ102を生成する(ステップS15)。なお、視野位置データ102は、カメラ2の視野を決定する駆動部23のパン位置、チルト位置およびズーム位置等を示すデータである。これにより、カメラ2の視野位置に関する視野位置データ102を生成することができ、後述の処理においてこれらのデータを用いることができる。
【0036】
視野位置データ102が生成されると、その視野位置において撮影を行いCCD220から画像データ100を取得する(ステップS16)。続いて、画像処理部250が画像データ100に必要な画像処理を行い、視野位置データ102を付加して送信画像データ101を生成する(ステップS17)。なお、送信画像データ101には、視野位置データ102以外にデータサイズ、ファイルフォーマット、撮影時間等の送信される画像に関するデータが付加されてもよい。
【0037】
さらに、通信部252が送信画像データ101を携帯電話3に送信し(ステップS18)、ステップS12からの処理を繰り返す。なお、通信部252は、送信画像データ101を送信する際に、1フレーム分の送信画像データ101を連続的に送信するのではなく、1フレーム分の送信画像データ101を複数に分割し、ステップS18が1回実行されるごとに逐次分割された部分のうちの1つを送信する。したがって、ステップS18が複数回実行されることにより、分割された送信画像データ101の1フレーム分の送信が終了するまで、ステップS15ないしS17はスキップされる。これにより、画像撮影システム1は、光学操作コマンド、非光学操作コマンドおよび処理結果データ等を十分なリアルタイム性を維持しつつ送受信することができる。
【0038】
<1.3. 携帯電話の動作>
図7は、本実施の形態における画像撮影システム1の携帯電話3の動作を示す流れ図である。図7を用いて画像撮影システム1の携帯電話3の動作について説明する。
【0039】
まず、携帯電話3の初期化を行う(ステップS21)。初期化には、予めメモリ37に記憶されているカメラ2の初期位置に基づいて、画像処理部340が視野位置データ102を初期化することが含まれる。なお、視野位置データ102の初期化は、カメラ2の視野位置に関する情報をカメラ2から別途受信することにより行ってもよい。
【0040】
初期化が終了すると、操作制御部341は、操作部31から光学操作コマンドが入力されたか否かを判定し(ステップS22)、光学操作コマンドが入力されていない場合はステップS23ないしS26の処理をスキップする。
【0041】
一方、光学操作コマンドが入力された場合、操作制御部341は光学操作コマンドを入力するためのキーが押し続けられているか否かを判定するための監視タイマをスタートさせ(ステップS23)、入力された光学操作コマンドに基づいて通信部342と画像処理部340とに必要な指示を与える。
【0042】
通信部は操作制御部341からの指示に基づいて入力された光学操作コマンドを送信し(ステップS24)、当該光学操作コマンドをカメラ2が受信したことを示す処理結果データを受信する(ステップS25)。なお、光学操作コマンドを送信してから一定時間が経過しても、通信部342が当該処理結果データを受信しなかった場合は光学操作コマンドを再送信することが望ましい。
【0043】
また、画像処理部340は、操作制御部341からの指示に基づいて、入力された光学操作コマンドに基づいて視野位置データ102に含まれるパン位置、チルト位置およびズーム位置を変更して、目標位置データ111を生成する(ステップS26)。
【0044】
次に、携帯電話3は、表示処理(ステップS27)を行う。図8は、携帯電話3における表示処理の詳細を示した図である。まず、通信部342が画像データ110を受信する(ステップS201)。続いて、画像処理部340が画像データ110から視野位置に関する情報を取得して、視野位置データ102を生成する(ステップS202)。なお、送信画像データ101は、前述のように分割して逐次送信されるため、ステップS201において、画像データ110は送信画像データ101の分割された一部ずつを受信する処理となる。
【0045】
視野位置データが生成されると、画像処理部340は1フレーム分の画像データ110を受信したか否かを判定し(ステップS203)、1フレーム分の画像データ110を受信していない場合は、ステップS204およびS205をスキップして表示処理を終了する。
【0046】
一方、1フレーム分の画像データ110を受信した場合、画像処理部340は、画像データ110に必要な画像処理を行って画像表示部32に表示し(ステップS204)、さらに、視野位置データ102および目標位置データ111に基づいてカメラ2の視野位置と目標位置とを画像表示部32に表示して(ステップS205)、表示処理を終了する。なお、画像表示部32上で視野位置と目標位置とが重なる場合は、視野位置が目標位置に到達したと判断して視野位置のみ表示する。また、ステップS22においてステップS26がスキップされることにより(ステップS22でYes。)、目標位置データ111が生成されておらず、RAM36上に目標位置データ111が存在しない場合には、光学操作コマンドによるカメラ2の操作が行われていないと判断して目標位置は表示しない。
【0047】
これにより、通信部342により受信されるカメラ2の視野位置に関する視野位置データ102に基づいて画像表示部32に視野位置を表示させること、および、操作部31により入力された光学操作コマンドに基づいて、カメラ2の視野位置の駆動後の目標位置を計算して画像表示部32に表示することができ、入力した光学操作コマンドによる駆動後に得られる画像を、現在表示されている画像の視野位置と比較することによりユーザが予測することができる。
【0048】
図9および図10は、本実施の形態における携帯電話3の表示処理において画像表示部32に表示される画面の例を示した図である。図9に示す画像40は、入力コマンドが入力され、カメラ2の駆動部23が駆動している状態で撮影された画像である。また、図9におけるスクロールバー400,410,420は、カメラ2の駆動部23のパン、チルトおよびズームの駆動可能範囲をそれぞれ表示するものである。なお、各スクロールバーにおける駆動部23の駆動可能範囲は、携帯電話3が予めメモリ37に記憶している駆動部23の駆動可能範囲に基づいて生成される。
【0049】
さらに、各スクロールバー上の黒色のマーカ401,411,421は、画像40を撮影したときのパン位置、チルト位置、およびズーム位置をそれぞれ表示したものであり、画像40を生成した画像データ110に付加された視野位置データ102に基づいて計算される。また、斜線のマーカ402,412,422は駆動部23のパン位置、チルト位置、およびズーム位置の目標位置を、目標位置データ111に基づいて計算し表示したものである。
【0050】
すなわち、携帯電話3が新たな画像データ110を受信すると、その画像データ110に付加される視野位置データ102がステップS27で取得され、その新たな画像が表示される際にマーカ401,411,421を画像表示部32に表示する。また、ユーザが光学操作コマンドを入力した場合は、ステップS25において新たに目標位置データ111が書き替えられ、新たな目標位置をマーカ402,412,422により表示する。
【0051】
したがって、パン、チルトおよびズームの指令に応答してカメラ2の駆動が行われている期間では、現在の視野位置を示すマーカ401,411,421は、目標位置を示すマーカ402,412,422に向けてそれぞれ動的に移動して行くことになる。
【0052】
図10に示す画像41は、駆動部23の駆動が終了した状態で撮影された画像である。また、図10における各スクロールバーは、図9において同一の符号を付したものと同一の意味を示しており、各スクロールバー上の黒色のマーカ403,413,423は、画像41を生成した画像データ110に付加された視野位置データ102に基づいて、画像41を撮影したときのパン位置、チルト位置、およびズーム位置をそれぞれ表示したものである。図10に示すように、駆動が完了した後は、視野位置と目標位置とが重なるため、目標位置データ111に基づいて生成されるマーカは表示されない。
【0053】
これにより、携帯電話3の画像表示部32に表示されたスクロールバー上に視野位置と目標位置とを表示することができ、現在の視野位置と駆動後の目標位置とを比較しながら容易にカメラ2の駆動後の画像をユーザが予測することができる。
【0054】
図8に戻って、操作制御部341は、監視タイマが終了したか否かを判定し(ステップS35)、監視タイマが終了していない場合はステップS31ないしS35を繰り返す。監視タイマが終了している場合は、さらに、光学操作コマンドを入力するためのキーが押されたままになっているか否かを判定し(ステップS36)、押されている場合は、ユーザが引き続き同じ光学操作コマンドを入力していると判断してステップS23からの処理を繰り返す。キーが押されたままになっていない場合は、ステップS22からの処理を繰り返す。
【0055】
以上により、本実施の形態における画像撮影システム1では、携帯電話3の画像表示部32に設けられたスクロールバー上の視野位置と目標位置とを示す表示から、入力した光学操作コマンドによってカメラ2の視野位置が現在の視野位置に対してどの程度変化するかを容易に予測することができ、現在の視野位置を表示しない場合に比べて、光学操作コマンドを余分に入力する等の誤操作を防止することができる。
【0056】
<2. 第2の実施の形態>
第1の実施の形態では、携帯電話3の画像表示部32に設けられたスクロールバー上に視野位置と目標位置とを表示することとしていたが、視野位置と目標位置とを表示する方法はメータを用いても行うことができる。
【0057】
図11および図12は、このような原理に従って構成した第2の実施の形態における画像撮影システム1において、カメラ2の視野位置と目標位置とを携帯電話3の画像表示部32に表示する例を示した図である。なお、本実施の形態における画像撮影システム1は、第1の実施の形態と同様の構成であるため説明は省略する。
【0058】
図11および図12は、本実施の形態における携帯電話3の表示処理において画像表示部32に表示される画面の例を示した図である。図11に示す画像50は、操作部31から光学操作コマンドが入力され、カメラ2の駆動部23が駆動している状態で撮影された画像である。また、図11におけるメータ500,510,520は、それぞれカメラ2の駆動部23のパン、チルトおよびズームの駆動可能範囲を示している。
【0059】
さらに、各メータ上の黒色の太線で示した針501,511,521は、画像50を撮影したときのパン位置、チルト位置、およびズーム位置をそれぞれ表示したものであり、画像50を生成した画像データ110に付加された視野位置データ102に基づいて計算される。また、点線で示した針502,512,522は駆動部23のパン位置、チルト位置、およびズーム位置の目標位置を、目標位置データ111に基づいて表示したものである。
【0060】
図12に示す画像51は、駆動部23の駆動が終了した状態で撮影された画像である。また、図12における各メータは、図11において同一の符号を付したものと同一の意味を示しており、各メータ上の黒色の太線で示した針503,513,523は、画像51を生成した画像データ110に付加された視野位置データ102に基づいて、画像51を撮影したときのパン位置、チルト位置、およびズーム位置をそれぞれ表示したものである。
【0061】
以上により、本実施の形態における画像撮影システム1では、携帯電話3によりカメラ2を操作する際に、携帯電話3の画像表示部32に表示されたメータ上に視野位置と目標位置とを表示することができ、このような手法によっても第1の実施の形態と同様の効果を得ることができる。
【0062】
<3. 第3の実施の形態>
上記実施の形態では、カメラ2の視野位置と目標位置とを表示するために画像表示部32にスクロールバーやメータを設けて表示していたが、携帯電話3の画像表示部32の表示領域をカメラ2が撮影できる全範囲(撮影可能範囲)として設定し、この撮影可能範囲の対応する位置に最新の画像、視野位置および目標位置を表示することもできる。
【0063】
図13は、このような原理に従って構成した第3の実施の形態における携帯電話3の表示処理(ステップS27)の詳細を示す流れ図である。図13ないし図15を用いて本実施の形態における携帯電話3の表示処理の動作について説明する。なお、本実施の形態における画像撮影システム1の構成は上記実施の形態と同様である。
【0064】
まず、第1の実施の形態と同様に画像データ110を受信し(ステップS301)、視野位置データ102を生成する(ステップS302)。続いて、画像処理部340が予めメモリ37に記憶されているカメラ2の駆動部23の駆動可能範囲と視野位置データ102のズーム位置とに基づいて、カメラ2の撮影可能範囲を求め、画像表示部32の表示領域を撮影可能範囲とする(ステップS303)。
【0065】
次に、視野位置データ102に基づいて視野位置をカメラ2の撮影範囲を示す枠として表示し(ステップS304)、1フレーム分の画像データ110を受信したか否かを判定し(ステップS305)、1フレーム分の画像データ110を受信していない場合はステップS306ないしS308をスキップして表示処理を終了する。
【0066】
一方、1フレーム分の画像データ110を受信した場合は、既に表示している旧画像が存在する場合には旧画像の彩度を変更するという修正を行い(ステップS306)、新たに受信完了した画像データ110を表示する(ステップS307)。なお、旧画像と新たに受信した画像データ110による画像(以下、「新画像」と称する。)とが重なる部分については新画像を表示する。
【0067】
さらに、目標位置データに基づいて目標位置をカメラ2の駆動後の撮影範囲を示す枠として表示し(ステップS308)、表示処理を終了する。
【0068】
図14および図15は、本実施の形態における携帯電話3の表示処理において画像表示部32に表示される画面の例を示した図である。図14に示す撮影可能範囲6はカメラ2の撮影可能範囲を示し、画像60は1フレーム分の受信が完了した画像データ110に基づいて表示された最新の画像である。また、視野枠600は現在受信中の画像データ110から取得した視野位置データに基づいて作成された視野位置を示す枠(すなわち、次に表示される画像の撮影範囲に相当する。)であり、予測枠601は目標位置データに基づいて作成された駆動後の目標位置を示す枠(すなわち、駆動後の撮影範囲に相当する。)である。
【0069】
これにより、画像処理部340が、カメラ2の撮影可能範囲に基づいて画像表示部32の表示領域を設定し、目標位置と視野位置とにおけるカメラ2の撮影範囲を表示領域に表示させることができ、第1の実施の形態同様、ユーザの操作性の向上を図ることができる。
【0070】
図15に示す画像61は駆動後の位置で撮影された画像データ110に基づいて表示された画像である。また、修正画像610は修正を施された旧画像である。図15に示すように、修正画像610は画像61によって重なる部分が上書きされた状態となり、重ならなかった部分のみが表示される。
【0071】
これにより、視野位置の変更後の新画像がカメラ2から送信されてくるまで、新画像に対応した表示位置に視野位置の変更前の旧画像を表示させることができ、以前に撮影された画像と現在撮影されている画像との撮影範囲の関係が明瞭となり、ユーザの操作性を向上させることができる。なお、新画像を表示する際、旧画像の彩度を変更するという修正を行うとしたが、修正の手法はこれに限られるものではない。例えば、旧画像に網掛けを施す、あるいは新旧の程度に応じてグラデーションを施す等、ユーザが新旧の画像を識別することができる手法であればどのような手法が用いられてもよい。また、ズーム位置が変更された場合は、変更後の視野位置データ102のズーム位置に基づいて画像処理部340が画像処理により旧画像の拡大・縮小を行い修正画像610を生成し表示する。
【0072】
以上により、第1の実施の形態同様、ユーザが表示されている画像の撮影範囲(視野位置)を確認しながら駆動後の撮影範囲(目標位置)を知ることができる。さらに、カメラ2の撮影可能範囲に対する視野位置および目標位置を知ることができ、よりユーザの操作性を向上することができる。
【0073】
<4. 第4の実施の形態>
第3の実施の形態においてカメラ2を駆動させる光学操作コマンドの入力は第1および第2の実施の形態と同様に操作部31から入力されるとして説明したが、カメラ2の撮影可能範囲が画像表示部32に表示されている状態では、ユーザが所望する位置を、画像表示部32が表示している撮影可能範囲上の点を指定することにより行う方が、より操作性が向上する。
【0074】
図16は、このような原理に従って構成した第4の実施の形態における携帯電話3の内部構成を他の構成とともに示した図である。図16に示すように本実施の形態においては、携帯電話3の画像表示部32がタッチパネル式のディスプレイとなっており、画面上の点をユーザが触れることによって信号を操作制御部341に入力することができることと、および画像表示部32から入力があった場合に操作制御部341が視野位置データ102を参照することが第1ないし第3の実施の形態と異なる。
【0075】
操作制御部341は、第1ないし第3の実施の形態と同様の機能に加えて、画像表示部32からの撮影可能範囲上の一点を示す信号(ユーザが所望するカメラ2の撮影可能範囲に対する注視点の座標を示す信号。)と視野位置データ102とに基づいて、視野位置を指定された注視点に駆動するために必要なパン命令およびチルト命令の数を計算する機能をも有する。
【0076】
すなわち、第4の実施の形態における携帯電話3では、画像表示部32がカメラ2の撮影可能範囲を表示した後、ユーザが画像表示部32の撮影可能範囲上の任意の点を触れることにより、その位置座標を取得し、必要な光学操作コマンドに変換して、その後は、操作部31から光学操作コマンドが入力された場合と同様の処理を行う。
【0077】
以上により、操作部31による光学操作コマンドの入力を画像表示部32の画面に触れることによって行うことができ、ユーザが操作部31を操作して入力する場合に比べて操作性を向上することができる。なお、ユーザの指等により入力が行われた場合、正確な位置入力ができないことがあるため、一旦指示された視野位置にカメラ2の駆動部23を駆動し、その後、操作部31からの入力を行って正確な位置への駆動を行ってもよい。
【0078】
<5. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
【0079】
例えば、上記実施の形態では画像撮影システム1における操作装置として携帯電話3を例に説明したが、操作装置は携帯電話に限られるものではなく、専用の携帯端末、あるいはパーソナルコンピュータ等が用いられてもよい。すなわち、ユーザによる操作信号をカメラに送信する機能とカメラによって撮影された画像を受信して表示する機能とを有する装置であればなんでもよい。
【0080】
また、撮影装置と操作装置とのデータの通信方法は、上記実施の形態に限られるものではない。例えば、Bluetoothのような無線通信であってもよいし、インターネット等でもよい。
【0081】
また、カメラ2および携帯電話3では、一連の画像処理が全てCPUによるソフトウェア的処理で実行されているが、それらの処理の一部または全部を専用の回路により実現することも可能である。
【0082】
また、上記実施の形態では、携帯電話3に入力された光学操作コマンドに基づいて目標位置を計算することとしているが、カメラ2が受信した光学操作コマンドを示す情報を携帯電話3に返信し、その情報に基づいて目標位置を計算するようにしてもよい。この場合は、転送途中で光学操作コマンドの送信データが紛失した場合にも対応できる。さらに、この場合、目標位置データ111に相当するデータはカメラ2で生成されてもよい。
【0083】
また、カメラ2の駆動部23の駆動可能範囲は、携帯電話3が予め記憶しておくことに限られない。例えば、カメラ2から送信される各種データに含められてもよい。
【0084】
また、上記実施の形態では、視野位置データ102は、送信画像データ101に付加されて送信されるとして説明したが、これに限られるものではない。送信画像データ101とリンクした状態で携帯電話3が受信することができる方法であれば、送信画像データ101とは別途に送信されてもよい。
【0085】
また、上記第3の実施の形態では新たな画像データ110が受信された場合に表示していた旧画像に修正を行うとしていたが、旧画像を表示しないとしてもよい。その場合は画像処理の軽減が図られる。
【0086】
上記実施例では、視野位置と目標位置とを駆動可能範囲を示す表示内にともに稼働するように表示した(視野位置は視野の変更に伴って移動し、目標位置は光学操作コマンドの入力に伴って移動する)。これに限らず、視野位置と目標位置の相対位置関係を表示する他の形態でもよい。例えば、現在表示されている画像の視野位置をスクロールバーの中央と定義しておく。そして視野位置と目標位置との差に相当する間隔をあけて目標位置のマーカを表示するようにしてもよい。この場合、撮影画像に付加された視野位置情報が更新されるたびに、すなわち新しい画像が表示されるたびに目標位置のマーカが移動する。また、目標位置をスクロールバーの中央と定義し、視野位置のマーカを移動させるようにしてもよい。
【0087】
【発明の効果】
本願記載の発明では、画像撮影装置が撮影手段の視野位置に関する視野位置情報を生成し、操作装置が通信手段により受信される視野位置情報に基づいて表示手段に視野位置を表示させるとともに、入力手段により入力された光学操作命令に基づいて、視野位置の変更後の目標位置を表示手段に表示することにより、表示されている画像を撮影した視野位置と予測される視野位置とを比較しながら駆動後の撮影画像を容易に予測することができ、操作命令の余分な入力による誤操作等を防止し、ユーザの操作性の向上を図ることができる。
【0090】
特に、本願記載の発明では、表示制御手段が、表示手段に表示されたスクロールバー上に視野位置と目標位置とを表示することにより、また、表示制御手段が、表示手段に表示されたメータ上に視野位置と目標位置とを表示することにより、ユーザが駆動後の撮影画像を容易に予測することができ、ユーザの操作性の向上を図ることができる。
【0091】
本願記載の発明では、表示制御手段が、撮影装置の撮影可能範囲に基づいて表示手段の表示領域を設定し、目標位置と視野位置とにおける撮影装置の撮影範囲を表示領域に表示させることにより、目標位置と視野位置とを撮影装置の撮影可能範囲と比較しながら、駆動後の撮影画像を予測することができ、さらにユーザの操作性の向上を図ることができる。
【0092】
本願記載の発明では、入力手段による光学操作命令の入力を表示手段の画面に触れることによって行うことにより、駆動後の視野位置を撮影可能範囲上で容易に指定することができ、一層の操作性の向上を図ることができる。
【0093】
本願記載の発明では、表示制御手段が、表示手段により表示された画像を、表示手段上の表示位置を同じくする他の画像が表示されるまで表示させることにより、広範囲な撮影範囲を表示することができ、さらにユーザの操作性の向上を図ることができる。
【0094】
本願記載の発明では、画像撮影装置が撮影手段の視野位置に関する視野位置情報を生成し、操作装置が通信手段により受信される視野位置情報と、入力手段により入力された光学操作命令に基づいて、視野位置と視野位置の変更後の目標位置との相対位置関係を表示し、画像撮影装置の視野変更動作中に繰り返し受信される視野位置情報に基づいて相対位置関係の表示を更新することにより、ユーザに見やすい表示とすることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像撮影システムの構成を示す図である。
【図2】画像撮影システムにおけるカメラの構成を示す図である。
【図3】カメラの機能構成を他の構成とともに示す図である。
【図4】画像撮影システムにおける携帯電話の構成のうち主に本発明の特徴に関係する部分を示す図である。
【図5】携帯電話の機能構成を他の構成とともに示す図である。
【図6】第1の実施の形態におけるカメラの動作を示す流れ図である。
【図7】第1の実施の形態における携帯電話の動作を示す流れ図である。
【図8】携帯電話の表示処理の動作を示す流れ図である。
【図9】カメラの駆動中に携帯電話の画像表示部に表示される画面の例を示す図である。
【図10】カメラの駆動後に携帯電話の画像表示部に表示される画面の例を示す図である。
【図11】第2の実施の形態におけるカメラの駆動中に携帯電話の画像表示部に表示される画面の例を示す図である。
【図12】第2の実施の形態におけるカメラの駆動後に携帯電話の画像表示部に表示される画面の例を示す図である。
【図13】第3の実施の形態における携帯電話の表示処理の動作を示す流れ図である。
【図14】カメラの駆動中に携帯電話の画像表示部に表示される画面の例を示す図である。
【図15】カメラの駆動後に携帯電話の画像表示部に表示される画面の例を示す図である。
【図16】第4の実施の形態における画像撮影システムの携帯電話の構成のうち主に本発明の特徴に関係する部分を示す図である。
【符号の説明】
1 画像撮影システム
2 カメラ
21 撮像系
210 ズームレンズ
211 フォーカスレンズ
22 球状ユニット
220 CCD
23 駆動部
230 第1駆動部
231 第2駆動部
232 第3駆動部
29 本体
3 携帯電話
40,41,50,51,60,61 画像
400,410,420 スクロールバー
401ないし403,411ないし413,421ないし423 マーカ
500,510,520 メータ
501ないし503,511ないし513,521ないし523 針
6 撮影可能範囲
600 視野枠
601 予測枠
610 修正画像

Claims (5)

  1. 駆動部を有する画像撮影装置を操作可能な操作装置であって、
    前記画像撮影装置との間で通信を行う通信手段と、
    前記駆動部を制御して前記画像撮影装置における視野の変更を指示するための光学操作命令をユーザが入力する入力手段と、
    画像データを画像として表示する表示手段と、
    前記画像撮影装置が撮影した画像データを前記通信手段により受信して、前記表示手段に画像として表示させる表示制御手段と、
    を備え、
    前記通信手段が、
    a-1)前記光学操作命令に応答した前記駆動部の駆動によって該駆動中に時間順次に視野の変更が行われる前記画像撮影装置の視野のうち第1の視野と、該第1の視野と重なり部分を有し、該第1の視野より時間的に後に設定される第2の視野とについて、前記第1の視野に対応した前記画像撮影装置の視野位置に関する第1の視野位置情報と、前記画像撮影装置が前記第1の視野において撮影した第1の画像データとを受信するとともに、
    a-2)前記第2の視野に対応した前記画像撮影装置の視野位置に関する第2の視野位置情報と、前記画像撮影装置が前記第2の視野において撮影した第2の画像データとを受信し、
    前記表示制御手段が、
    b-1)前記表示手段に前記画像撮影装置の撮影可能範囲に対応した表示領域を設定し、
    b-2)所定の視野に設定された前記画像撮影装置の前記表示領域における撮影範囲の外縁を視野枠として、前記表示領域のうち前記第1の視野位置情報に基づいた第1の視野枠が内包し、かつ、前記第2の視野位置情報に基づいた第2の視野枠が内包しない部分に前記第1の画像データに基づいた第1の画像を表示させるとともに、前記表示領域のうち前記第2の視野枠が内包する部分に前記第2の画像データに基づいた第2の画像を表示させ、
    b-3)前記光学操作命令に基づいた前記駆動部の駆動が完了した後の前記画像撮影装置の視野を前記光学操作命令に基づいて算出し、該視野の前記表示領域における外縁を目標枠として前記表示領域に表示させることを特徴とする操作装置
  2. 請求項1に記載の操作装置であって、
    前記表示制御手段は、前記通信手段による前記第2の視野位置情報の受信が完了し、かつ、前記第2の画像データの受信が完了していない期間では、前記表示領域のうち前記第1の視野枠に内包される部分に前記第1の画像データに基づいた画像を表示させるとともに、前記表示領域には前記第2の画像データに基づいた画像を表示させることなく前記第2の視野枠を表示させることを特徴とする操作装置。
  3. 請求項1に記載の操作装置であって
    記表示制御手段は、前記第1の画像と、前記第2の画像とを相互に異なる表示形式で表示させることを特徴とする操作装置。
  4. 請求項3に記載の操作装置であって、
    前記表示制御手段は、前記第1の画像に対して、彩度の変更、網掛けの施し、およびグラデーションの施しのうち少なくとも1つを行うことによって、前記第1の画像と、前記第2の画像とを相互に異なる表示形式で表示させることを特徴とする操作装置。
  5. 画像撮影システムであって、
    請求項1に記載の操作装置と、
    前記画像撮影装置と、
    を備えることを特徴とする画像撮影システム
JP2001162521A 2001-05-30 2001-05-30 画像撮影システム、および操作装置 Expired - Fee Related JP4802397B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001162521A JP4802397B2 (ja) 2001-05-30 2001-05-30 画像撮影システム、および操作装置
US10/157,310 US7057643B2 (en) 2001-05-30 2002-05-29 Image capturing system, image capturing apparatus, and manual operating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001162521A JP4802397B2 (ja) 2001-05-30 2001-05-30 画像撮影システム、および操作装置

Publications (2)

Publication Number Publication Date
JP2002354326A JP2002354326A (ja) 2002-12-06
JP4802397B2 true JP4802397B2 (ja) 2011-10-26

Family

ID=19005628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001162521A Expired - Fee Related JP4802397B2 (ja) 2001-05-30 2001-05-30 画像撮影システム、および操作装置

Country Status (2)

Country Link
US (1) US7057643B2 (ja)
JP (1) JP4802397B2 (ja)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7663333B2 (en) 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US7425986B2 (en) * 2002-03-29 2008-09-16 Canon Kabushiki Kaisha Conversion apparatus for image data delivery
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
JP2004297751A (ja) * 2003-02-07 2004-10-21 Sharp Corp 合焦状態表示装置及び合焦状態表示方法
JP2004274566A (ja) * 2003-03-11 2004-09-30 Nec Corp 携帯電話機およびその画像表示方法
US20040179121A1 (en) * 2003-03-12 2004-09-16 Silverstein D. Amnon System and method for displaying captured images according to imaging device position
JP2005012428A (ja) * 2003-06-18 2005-01-13 Seiko Epson Corp ディジタルカメラ
US20050012824A1 (en) * 2003-07-18 2005-01-20 Stavely Donald J. Camera remote control with framing controls and display
IL157156A0 (en) * 2003-07-29 2004-08-31 Rafael Armament Dev Authority Predictive display for system having delayed feedback of a command issued
US7268802B2 (en) * 2003-08-20 2007-09-11 Hewlett-Packard Development Company, L.P. Photography system with remote control subject designation and digital framing
JP4599920B2 (ja) * 2003-09-02 2010-12-15 セイコーエプソン株式会社 画像生成装置、および画像生成方法
JP4269883B2 (ja) * 2003-10-20 2009-05-27 ソニー株式会社 マイクロホン装置、再生装置及び撮像装置
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
JP2008508572A (ja) 2004-06-24 2008-03-21 アイロボット コーポレーション 携帯ロボットのプログラミングおよび診断ツール
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US7623156B2 (en) * 2004-07-16 2009-11-24 Polycom, Inc. Natural pan tilt zoom camera motion to preset camera positions
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
ATE523130T1 (de) 2005-02-18 2011-09-15 Irobot Corp Selbstfahrender flächenreinigungsroboter für nass-und trockenreinigung
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US7945938B2 (en) * 2005-05-11 2011-05-17 Canon Kabushiki Kaisha Network camera system and control method therefore
US7643064B1 (en) * 2005-06-21 2010-01-05 Hewlett-Packard Development Company, L.P. Predictive video device system
TW200700878A (en) * 2005-06-27 2007-01-01 Lite On Technology Corp Image capturing apparatus with a remote controller
CN1900869A (zh) * 2005-07-21 2007-01-24 鸿富锦精密工业(深圳)有限公司 生产自动化服务系统及方法
CN101032098B (zh) * 2005-07-25 2011-11-23 索尼株式会社 通信装置和方法
JP2007104300A (ja) * 2005-10-04 2007-04-19 Canon Inc 撮影装置
JP4572815B2 (ja) * 2005-11-18 2010-11-04 富士フイルム株式会社 撮像装置及び撮像方法
ES2522926T3 (es) 2005-12-02 2014-11-19 Irobot Corporation Robot Autónomo de Cubrimiento
DE602006009149D1 (de) 2005-12-02 2009-10-22 Irobot Corp Modularer roboter
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
EP2544065B1 (en) 2005-12-02 2017-02-08 iRobot Corporation Robot system
ES2378138T3 (es) * 2005-12-02 2012-04-09 Irobot Corporation Movilidad de robot de cubrimiento
US20070254640A1 (en) * 2006-04-27 2007-11-01 Bliss Stephen J Remote control and viewfinder for mobile camera phone
EP2023788B1 (en) 2006-05-19 2011-09-07 iRobot Corporation Removing debris from cleaning robots
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
KR100690243B1 (ko) * 2006-06-07 2007-03-12 삼성전자주식회사 휴대 단말기의 카메라 제어 장치 및 방법
EP2155032B1 (en) 2007-05-09 2015-12-02 iRobot Corporation Compact autonomous coverage robot
FR2918477A1 (fr) * 2007-07-04 2009-01-09 Aldebaran Robotics Soc Par Act Procede d'edition de mouvements d'un robot
US8089518B2 (en) * 2007-11-16 2012-01-03 Samsung Electronics Co., Ltd. System and method for automatic image capture in a handheld camera with a multiple-axis actuating mechanism
JP4636132B2 (ja) * 2008-07-09 2011-02-23 ソニー株式会社 ネットワークカメラ
JP5717270B2 (ja) * 2009-12-28 2015-05-13 任天堂株式会社 情報処理プログラム、情報処理装置および情報処理方法
US8800107B2 (en) 2010-02-16 2014-08-12 Irobot Corporation Vacuum brush
JP5063749B2 (ja) * 2010-07-12 2012-10-31 キヤノン株式会社 撮影制御システム、撮像装置の制御装置及びその制御方法、並びにプログラム
JP2012186698A (ja) * 2011-03-07 2012-09-27 Ricoh Co Ltd 画像撮影装置
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
WO2014111923A1 (en) 2013-01-15 2014-07-24 Israel Aerospace Industries Ltd Remote tracking of objects
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
US9420188B2 (en) * 2013-09-17 2016-08-16 Sony Corporation Lens control apparatus, lens control method, image capturing apparatus, information processing apparatus, information processing method, image capturing system, and computer readable storage medium
JP6271988B2 (ja) * 2013-12-12 2018-01-31 キヤノン株式会社 撮像装置およびその制御方法、プログラム
JP6381265B2 (ja) 2014-04-14 2018-08-29 キヤノン株式会社 情報処理装置、表示方法、及びプログラム
JP6335668B2 (ja) * 2014-06-13 2018-05-30 キヤノン株式会社 撮影装置、その制御方法、撮影システム、及びプログラム
US10044939B2 (en) * 2014-09-19 2018-08-07 Sony Interactive Entertainment LLC Systems and methods for camera operation through control device
JP6836305B2 (ja) * 2017-01-13 2021-02-24 キヤノン株式会社 撮像制御装置およびその制御方法
JP7113255B2 (ja) * 2018-09-18 2022-08-05 パナソニックIpマネジメント株式会社 電子機器、画像表示方法、プログラム、および画像撮影システム
JP2020080476A (ja) 2018-11-13 2020-05-28 パナソニックIpマネジメント株式会社 撮影装置および撮影方法
JP2020170965A (ja) 2019-04-04 2020-10-15 パナソニックIpマネジメント株式会社 カメラおよび通信方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5627586A (en) * 1992-04-09 1997-05-06 Olympus Optical Co., Ltd. Moving body detection device of camera
JP3487436B2 (ja) * 1992-09-28 2004-01-19 ソニー株式会社 ビデオカメラシステム
WO1995011566A1 (en) * 1993-10-20 1995-04-27 Videoconferencing Systems, Inc. Adaptive videoconferencing system
JPH07135594A (ja) * 1993-11-11 1995-05-23 Canon Inc 撮像制御装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JPH09186927A (ja) * 1995-12-28 1997-07-15 Sony Corp 追尾装置および追尾方法
JP3902805B2 (ja) * 1996-01-08 2007-04-11 キヤノン株式会社 カメラ制御装置及びカメラ制御装置の画像表示方法
JP3839881B2 (ja) * 1996-07-22 2006-11-01 キヤノン株式会社 撮像制御装置及びその制御方法
US6654060B1 (en) * 1997-01-07 2003-11-25 Canon Kabushiki Kaisha Video-image control apparatus and method and storage medium
JP3787404B2 (ja) * 1997-02-24 2006-06-21 キヤノン株式会社 カメラ制御システム及びその制御方法
JP4532610B2 (ja) * 1998-01-30 2010-08-25 キヤノン株式会社 カメラ制御システムおよびその方法およびその動作処理を実行するプログラムを記憶した記憶媒体
US6727954B1 (en) * 1998-08-12 2004-04-27 Minolta Co., Ltd. Electronic camera and image processing system
JP2000059674A (ja) * 1998-08-12 2000-02-25 Minolta Co Ltd デジタルカメラ
JP3880734B2 (ja) * 1998-10-30 2007-02-14 東光電気株式会社 カメラ制御システム
US7327387B2 (en) * 2000-02-21 2008-02-05 Fujifilm Corporation Image pick-up information transmitting system and remote control method for an information transmitting system
AU2001262962A1 (en) * 2000-05-01 2001-11-12 Irobot Corporation Method and system for remote control of mobile robot
US20020154007A1 (en) * 2001-04-20 2002-10-24 Tsan-Lung Yang Car reverse alerting and multi-functional display
JP4593834B2 (ja) * 2001-07-02 2010-12-08 富士フイルム株式会社 デジタルカメラ及びそのシステム

Also Published As

Publication number Publication date
US7057643B2 (en) 2006-06-06
US20020180878A1 (en) 2002-12-05
JP2002354326A (ja) 2002-12-06

Similar Documents

Publication Publication Date Title
JP4802397B2 (ja) 画像撮影システム、および操作装置
US7810039B2 (en) Image displaying method, image displaying program, and display
US7236185B2 (en) Image capturing system
KR100714413B1 (ko) 디지털 카메라 모듈 및 디지털 호스트 장치
JP4702401B2 (ja) カメラ、カメラ制御プログラム及びカメラ制御方法
JP5393340B2 (ja) 撮像端末、表示端末、表示方法、及び撮像システム
US9525844B2 (en) Mobile terminal and method for transmitting image therein
KR101953614B1 (ko) 카메라장치의 이미지처리장치 및 방법
JP4305434B2 (ja) 電子カメラ及びプログラム
JP2012108479A (ja) 投射型表示装置及びその制御方法
US9479689B2 (en) Imaging device and focusing-verification display method
JP2001136514A (ja) カメラ制御システム及びその制御方法及び記憶媒体
JP2004272578A (ja) 撮像装置及び歪み補正方法
JP4652248B2 (ja) 撮影システム、撮影制御方法、及び撮影装置
US20020180871A1 (en) Image shooting system
JP2006129101A (ja) 画像のトリミング方法、撮像装置、画像処理装置、及びプログラム
JP6374535B2 (ja) 操作装置、追尾システム、操作方法、及びプログラム
JP2007068182A (ja) 撮像されたイメージ合成方法及び前記方法により撮像されたイメージを合成するカメラまたはカメラが内蔵された移動機器
JP2002354324A (ja) 画像撮影装置、その操作装置、および画像撮影システム
JP2010062834A (ja) 撮影システム並びに当該撮影システムを構成する撮影装置及び操作装置
JP6012351B2 (ja) 画像処理装置、その制御方法及びプログラム
JP2002354330A (ja) 画像撮影装置、その操作装置、及び画像撮影システム
JP7054548B2 (ja) 遠隔操作支援システム、遠隔操作端末、遠隔操作支援方法、及びコンピュータプログラム
JP2006222617A (ja) 遠隔撮影システム、遠隔表示制御装置及び遠隔撮影装置
KR100842615B1 (ko) 표시장치에서 좌표의 위치 이동 방법

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080425

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110725

R150 Certificate of patent or registration of utility model

Ref document number: 4802397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees