JP2018107583A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2018107583A
JP2018107583A JP2016251042A JP2016251042A JP2018107583A JP 2018107583 A JP2018107583 A JP 2018107583A JP 2016251042 A JP2016251042 A JP 2016251042A JP 2016251042 A JP2016251042 A JP 2016251042A JP 2018107583 A JP2018107583 A JP 2018107583A
Authority
JP
Japan
Prior art keywords
image
information processing
display control
object indicating
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016251042A
Other languages
English (en)
Other versions
JP2018107583A5 (ja
JP6786378B2 (ja
Inventor
孝文 柳澤
Takafumi Yanagisawa
孝文 柳澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016251042A priority Critical patent/JP6786378B2/ja
Priority to SG10201710217TA priority patent/SG10201710217TA/en
Priority to EP17206355.4A priority patent/EP3340606B1/en
Priority to US15/842,613 priority patent/US10497160B2/en
Priority to KR1020170176683A priority patent/KR102183803B1/ko
Priority to CN201711432815.7A priority patent/CN108243310B/zh
Publication of JP2018107583A publication Critical patent/JP2018107583A/ja
Publication of JP2018107583A5 publication Critical patent/JP2018107583A5/ja
Application granted granted Critical
Publication of JP6786378B2 publication Critical patent/JP6786378B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ある画像と、その画像の一部に対応する画像との位置関係をユーザが直感的に把握可能とすることを目的とする。
【解決手段】撮像手段により撮像された画像データに係る画像を表示手段に表示させる情報処理装置であって、撮像手段により撮像された画像の一部に対応する部分画像に対応する位置を示す第1のオブジェクトを画像上に重畳表示させる第1の表示制御手段と、画像における部分画像の位置を移動させることができる方向を示す第2のオブジェクトを画像上に重畳表示させる第2の表示制御手段と、を有する。
【選択図】図7

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、ネットワークカメラ市場が拡大する中で、様々な種類のネットワークカメラが製造されている。その1つに、魚眼レンズを装着し、周囲360度を死角なく見渡すことができる、全方位ネットワークカメラ(以下、全方位カメラ)がある。
全方位カメラにて撮像された映像は、歪みが大きく、そのままでは監視用途には向いていない。そのため、視界全てを表示する「魚眼映像」と、その一部を切り出した上でデワープして通常のカメラのように歪みを少なく表示する「切り出し映像」とを並べて表示する使い方が一般的である。
しかし、並べて表示した場合、切り出し映像と魚眼映像との位置関係がわかりづらいという問題があった。
この様な問題を解決するために、特許文献1のように、切り出し映像が魚眼映像のどの部分を切り出しているのかを表示する技術がある。
特開2016−63397号公報
監視担当者は監視対象物が移動した場合に、切り出し位置をパン・チルト操作して監視対象物を追いかける。このとき、全方位カメラを天井に設置している場合は、切り出し映像に対してパン操作をすると、魚眼映像上では現在の切り出し位置と魚眼中心を半径とした円周上を移動するような動きとなる。また、チルト操作をすると、現在位置と魚眼中心とを結んだ直線上を移動する。
このように、ある画像と、その画像の一部に対応する画像との位置関係が直感的にわかりづらいという課題があった。
本発明は、魚眼レンズを有する撮像部により撮像された画像データと前記画像データの切り出し画像データとを表示部に表示する情報処理装置であって、前記切り出し画像データの中心位置を示す第1のオブジェクトを前記画像データ上に重畳表示する第1の表示手段と、前記切り出し画像データの切り出し位置を所定の方向に移動させることができる範囲を示す第2のオブジェクトを前記画像データ上に重畳表示する第2の表示手段と、を有する。
本発明によれば、ある画像と、その画像の一部に対応する画像との位置関係をユーザが直感的に把握可能とすることができる。
情報処理システムのシステム構成の一例を示す図である。 カメラサーバのハードウェア構成の一例を示す図である。 ビューワクライアントのハードウェア構成の一例を示す図である。 カメラサーバのソフトウェア構成等の一例を示す図である。 実施形態1の切り出し映像の移動方向を示すマーク等の一例を示す図である。 ビューワクライアントのソフトウェア構成等の一例を示す図である。 実施形態1のGUIの一例を示す図である。 実施形態1の情報処理の一例を示すフローチャートである。 実施形態2のGUIの一例を示す図である。 実施形態3のGUIの一例を示す図である。 実施形態3の情報処理の一例を示すフローチャートである。 実施形態4のGUIの一例を示す図である。 画像データ上に表示するチルト補助線の一例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。なお、各実施形態では、一例として魚眼レンズを用いて撮像された魚眼画像とそこから切り出された画像(部分画像)とを例に説明するが、各実施形態は、撮像方向をパン方向及びチルト方向に変更可能なPTZ(パン、チルト、ズーム)カメラにも適用可能である。その場合は、パン方向及びチルト方向に撮像方向を変化させて撮像可能な最大の範囲を示すパノラマ画像を魚眼画像に置き換えればよい。また、現在撮像している画像を切出し画像(部分画像)に置き換えればよい。また、PT駆動できない固定カメラの撮像画像と、そこから切り出した画像にも適用可能である。
<実施形態1>
図1は、情報処理システムのシステム構成の一例を示す図である。
情報処理システム100は、カメラサーバ110と、ビューワクライアント120と、ネットワーク130とを有して構成されている。カメラサーバ110、ビューワクライアント120は、情報処理装置の一例である。
カメラサーバ110は、カメラ(ネットワークカメラ)により撮像された画像の画像データを、ネットワーク130を介して配信する。
ビューワクライアント120は、カメラサーバ110にアクセスしてカメラの設定を変更し、カメラでの撮像の結果得られた画像データを処理し、又は、蓄積された画像データ等を処理して、処理後の画像データに基づく画像の表示を行う。
図1に示す情報処理システム100には、クライアントとして、ビューワクライアント120のみを示している。しかし、情報処理システム100は、ビューワクライアント120以外に、カメラサーバ110にアクセスして画像データの受信や蓄積を行う他のクライアントを含んでいてもよい。
ネットワーク130は、カメラサーバ110とビューワクライアント120とを通信可能に接続するものであり、例えば、Ethernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成されている。本実施形態において、ネットワーク130は、カメラサーバ110とビューワクライアント120との間の通信が支障なく行えるものであれば、その通信規格や規模、構成は問わない。したがって、ネットワーク130としては、インターネットからLAN(Local Area Network)まで適用することができる。
図2は、カメラサーバ110のハードウェア構成の一例を示す図である。
カメラサーバ110は、その内部に内部バス201を有する。そして、カメラサーバ110は、内部バス201に接続された、CPU200、1次記憶装置210、2次記憶装置220、及び、各種のインターフェース(I/F)230〜250を有している。より具体的には、カメラサーバ110は、各種のI/Fとして、画像キャプチャI/F230、入出力I/F240及び、ネットワークI/F250を有する。更に、カメラサーバ110は、画像キャプチャI/F230に接続されたカメラ231、及び、入出力I/F240に接続された入出力機器(I/O機器)241を有している。カメラ231は、魚眼レンズを有する撮像部の一例である。カメラ231は魚眼レンズを介して集光した光に基づく画像データを生成する。
CPU200は、カメラサーバ110における動作を統括的に制御するものである。
1次記憶装置210は、例えば、RAMに代表される書き込み可能な高速の記憶装置である。この1次記憶装置210は、例えば、OS(オペレーティングシステム)のプログラムや各種のプログラム及び各種のデータ等がロードされる。また、1次記憶装置210は、CPU200がOSのプログラムや各種のプログラム等を実行する際の作業領域としても使用される。
2次記憶装置220は、例えば、FDDやHDD、フラッシュメモリ、CD−ROMドライブ等に代表される不揮発性の記憶装置である。この2次記憶装置220は、OSのプログラムや各種のプログラム及び各種のデータ等の永続的な記憶領域として使用される他に、短期的な各種のデータ等の記憶領域としても使用される。
画像キャプチャI/F230は、接続されているカメラ231で撮像された画像の画像データを所定のフォーマットに変換・圧縮して、例えば、2次記憶装置220(1次記憶装置210であってもよい)に転送する。カメラ231は、撮像画角やズーム位置が可変に構成された撮像部である。
入出力I/F240は、接続されているI/O機器241を介して、外部からの信号・割り込みを受け付けたり、外部への信号の出力を行ったりする。
ネットワークI/F250は、カメラサーバ110をネットワーク130に接続するためのインターフェースであり、ネットワーク130を介して、ビューワクライアント120等との通信を担う。
CPU200が2次記憶装置220に記憶され、1次記憶装置210に読み出されたOSのプログラムや各種のプログラムを実行することによって、カメラサーバ110の機能が実現される。
図3は、ビューワクライアント120のハードウェア構成の一例を示す図である。
ビューワクライアント120は、その内部に内部バス301を有する。そして、ビューワクライアント120は、内部バス301に接続された、CPU300、1次記憶装置310、2次記憶装置320、ユーザ入出力I/F330、及び、ネットワークI/F340を有している。更に、ビューワクライアント120は、ユーザ入出力I/F330に接続された入出力機器(I/O機器)331を有している。
CPU300は、ビューワクライアント120における動作を統括的に制御するものである。
1次記憶装置310は、例えば、RAMに代表される書き込み可能な高速の記憶装置である。この1次記憶装置310は、例えば、OSのプログラムや各種のプログラム及び各種のデータ等がロードされる。また、1次記憶装置310は、CPU300がOSのプログラムや各種のプログラム等を実行する際の作業領域としても使用される。
2次記憶装置320は、例えば、FDDやHDD、フラッシュメモリ、CD−ROMドライブ等に代表される不揮発性の記憶装置である。この2次記憶装置320は、OSのプログラムや各種のプログラム及び各種のデータ等の永続的な記憶領域として使用される他に、短期的な各種のデータ等の記憶領域としても使用される。
ユーザ入出力I/F330は、接続されているI/O機器331を介してユーザとの入出力を司るものである。I/O機器331は、例えば、キーボード、マウスから構成される入出力機器である。
ネットワークI/F340は、ネットワーク130と接続するためのインターフェースであり、ネットワーク130を介して、カメラサーバ110等との通信を担う。
表示装置350は、カメラサーバ110で撮像された撮像画像データに基づく画像を表示するディスプレイ等の画像表示機器である。表示装置350は、表示部の一例である。
CPU300が2次記憶装置320に記憶され、1次記憶装置310に読み出されたOSのプログラムや各種のプログラムを実行することによって、ビューワクライアント120の機能、後述する図8、図11のフローチャートの処理が実現される。
図4は、カメラサーバ110のソフトウェア構成及び2次記憶装置220に記憶されるデータ等の一例を示す図である。より具体的には、図4(a)では、カメラサーバ110のプログラムをCPU200が実行することによって実現されるソフトウェア構成を示している。図4(b)では、カメラサーバ110の2次記憶装置220に記憶される各種のデータ等を示している。
1次記憶装置210には、OS400、画像撮像部410、切り出し画像生成部420、及び、表示制御部430のプログラムがロードされCPU200によって実行される。但し、切り出し画像生成部420、及び、表示制御部430のプログラムは、必ずしも、カメラサーバ110の1次記憶装置210に存在する必要はない。例えば、切り出し画像生成部420、及び、表示制御部430に相当する部のプログラムは、後述するように、ビューワクライアント120の1次記憶装置310に存在し、ビューワクライアント120のCPU300によって実行されてもよい。
OS400は、カメラサーバ110の全体を制御する。ここで、各部(400〜430)のプログラムの1次記憶装置210における位置(番地)や大きさは、OS400が管理する。
画像撮像部410は、カメラ231における画像の撮像の処理を行うと共に、受信したイベントに基づいてカメラ231で撮像された画像の処理を行う。
例えば、画像撮像部410は、カメラ231から画像キャプチャ終了イベントを受信すると、カメラ231で撮像された画像の画像データを画像キャプチャI/F230を介して取得する処理を行う。そして、画像撮像部410は、取得した画像データを所定のフォーマットに変換・圧縮して、これを画像データ440として2次記憶装置220に記憶して保存(蓄積)する処理を行う。また、画像撮像部410は、ネットワーク130を介して外部装置であるビューワクライアント120から配送要求イベントを受信すると、2次記憶装置220に保存されている画像データ440をビューワクライアント120へ配送する処理を行う。このように、画像撮像部410は、画像データ440を管理等するためのイベントを受信することで、カメラサーバ110のカメラ231による画像(画像データ)の撮像からネットワーク130を介した画像データの配信等に至るまでの処理を行う。
切り出し画像生成部420は、2次記憶装置220に保存されている画像データ440を用いて、切り出し画像データ450を作成する処理を行う。この際、切り出し画像生成部420は、切り出し位置データ460を基に、魚眼映像上のどの位置を切り出すのかを決定し、歪みの少ない画像を作成する。つまり、魚眼レンズを介さないで撮像された画像と同じような見た目になるよう歪みを補正する。このような処理はデワープ処理と呼ばれている。切り出し画像生成部420は、ネットワーク130を介して外部装置であるビューワクライアント120から配送要求イベントを受信する。すると、切り出し画像生成部420は、2次記憶装置220に保存されている切り出し画像データ450をビューワクライアント120へ配送する処理を行う。また、切り出し画像生成部420は、外部装置であるビューワクライアント120から、切り出し位置を変更するような要求イベントを受信すると、イベント情報を基に切り出し位置データ460を更新する。そして、切り出し画像生成部420は、更新した切り出し位置データ460を基に、切り出し画像データ450を生成する。このように、切り出し画像生成部420は、切り出し画像データ450を管理等するためのイベントを受信する。このことで、切り出し画像生成部420は、画像データ440から切り出し画像データを生成する処理から、ネットワーク130を介した切り出し画像データ450の配信等に至るまでの処理を行う。
表示制御部430は、外部装置であるビューワクライアント120からの要求に応じて、画像データ440に対して切り出し位置データ460を基に、現在の切り出し位置と、前記切り出し位置が移動する方向を示すマークを重畳表示する。
図4(b)に示すように、カメラサーバ110の2次記憶装置220には、画像データ440、切り出し画像データ450、及び、切り出し位置データ460が保存される。但し、画像データ440、切り出し画像データ450、切り出し位置データ460は、必ずしも、カメラサーバ110の2次記憶装置220に存在する必要はない。例えば、画像データ440、切り出し画像データ450、切り出し位置データ460に想到するデータは、後述するように、ビューワクライアント120の2次記憶装置320に存在してもよい。
画像データ440は、カメラ231で撮像されて、画像撮像部410で処理された画像データである。画像データ440は、魚眼レンズを有する撮像部により撮像された画像データの一例である。
切り出し画像データ450は、切り出し画像生成部420による処理で作成された画像データである。切り出し画像データ450は、魚眼レンズを有する撮像部により撮像された画像データの切り出し画像データの一例である。
切り出し位置データ460は、切り出し画像の中心の位置の座標である。切り出し位置データ460に保存される情報については、後述する図5にて説明する。
図5(a)は、全方位カメラで撮像した魚眼映像を画像データ440とした場合の、画像データ440に重畳される切り出し映像の移動方向を示すマーク等の表示例である。なお、画像データ440は、全方位カメラで撮像した魚眼映像そのものでなくてもよく、全方位カメラで撮像した魚眼映像を模式的に示した図であってもよい。表示制御部430は、切り出し位置データ460を基に、切り出し中心510を画像データ440上に重畳表示する。切り出し中心510は、切り出し画像データの中心位置を示す第1のオブジェクトの一例である。次に、表示制御部430は、切り出し映像の水平/垂直方向を示す線(それぞれ、パン補助線520、チルト補助線530とする)を切り出し位置が移動する方向を示すマークとして重畳表示する。パン補助線520及び/又はチルト補助線530は、切り出し画像データの切り出し位置を所定の方向に移動させることができる範囲を示す第2のオブジェクトの一例である。このとき、切り出し映像の水平方向を示すパン補助線は、中心が画像データ440の中心で、半径が画像データ440の中心から切り出し位置の中心までの距離の円として描画される。また、切り出し映像の垂直方向を示すチルト補助線は、画像データ440の中心と切り出し位置の中心を通る線分として描画される。以下に示す各実施形態では、パン補助線520及びチルト補助線530の双方を重畳表示するものとして説明を行うが、何れか一方だけを重畳表示してもよい。
図5(b)に、前述した、切り出し位置データ460に保存される情報の一例を示す。例えば、画像データ440が全方位カメラで撮像した魚眼映像である場合、切り出し位置データ460には、画像データ440の中心座標540と切り出し中心510との距離550が保存される。また、切り出し位置データ460には、画像データの中心座標540と画像データ440の水平線上の1点とを結んだ基準線560、画像データの中心座標540と切り出し中心510とを結んだ線分の角度570が保存される。
図6は、ビューワクライアント120のソフトウェア構成及び2次記憶装置320に記憶されるデータ等の一例を示す図である。より具体的には、図6(a)に、ビューワクライアント120のプログラムをCPU300が実行することによって実現されるソフトウェア構成を示している。図6(b)では、ビューワクライアント120の2次記憶装置320に記憶される各種のデータ等を示している。
1次記憶装置310には、OS600、ビューワ部610のプログラムがロードされる。また、1次記憶装置310には、必要に応じて、カメラサーバ110の切り出し画像生成部420、表示制御部430のプログラムに替えて、切り出し画像生成部620、表示制御部630のプログラムがロードされる。各プログラムは、CPU300によって実行される。
OS600は、ビューワクライアント120の全体を制御する。ここで、各部(610〜630)のプログラムの1次記憶装置310における位置(番地)や大きさは、OS600が管理する。
ビューワ部610は、カメラサーバ110で撮像された撮像画像データに基づく画像、切り出し画像、及び、切り出し映像が移動する方向を示すマークを表示する処理を行う。
ビューワ部610は、表示装置350にユーザインターフェースを表示するためのユーザインターフェース機能を備えている。このユーザインターフェース機能によるユーザインターフェースの表示により、カメラサーバ110からの動画像の表示や静止画像の表示、ユーザ操作による動画像の表示や静止画像の表示、蓄積画像の表示、が行われる。また、ユーザインターフェース機能によるユーザインターフェースの表示により、切り出し画像の表示、切り出し映像が移動する方向を示すマークの表示等が行われる。ユーザインターフェースとしては、例えば、CUIやGUI、或いはWebアプリケーション等がある。また、CUIやGUI、或いはWebアプリケーションのインターフェースは、例えば、カメラサーバ110の表示制御部430によって提供される。
図6(a)の切り出し画像生成部620、表示制御部630は、それぞれ、図4(a)の切り出し画像生成部420、表示制御部430と同様である。
図6(b)に示すように2次記憶装置320には必要に応じてカメラサーバ110の2次記憶装置310の切り出し画像データ450及び切り出し位置データ460に替えて、それぞれ、切り出し画像データ650及び切り出し位置データ660が保存されてもよい。
図6(b)の切り出し画像データ650及び切り出し位置データ660は、それぞれ、図4(b)の切り出し画像データ450及び切り出し位置データ460と同様のものである。例えば、切り出し画像データ650は、切り出し画像生成部620の処理により作成されたものであり、切り出し位置データ660は、切り出し画像生成部620を使用して生成されたものである。画像データ640も画像データ440と同様のものである。
図7は、ビューワ部610が表示装置350に表示する、実施形態1のGUIの一例を示す図である。図7のGUIの表示は、例えば、表示制御部630によって実行される。
画像データ表示部700には、カメラサーバ110から取得した、画像データ440が表示される。このとき、画像データ表示部700上の画像データ440には、切り出し位置の中心510、パン補助線520、及び、チルト補助線530が重畳表示される。
切り出し映像表示部710には、カメラサーバ110から取得した、切り出し画像データ450が表示される。
チルトスライダー720は、現在の切り出し位置のチルトの値を表す。チルトつまみ721を、マウス等に代表されるI/O機器331を用いて移動させることで、切り出し位置のチルトの値が変更される。つまり、チルトの値が変更されると、切り出し画像生成部620は、デワープ処理(歪み補正)を行った後の画像における垂直方向(チルト方向)に切出し位置を変更する。このように、本実施形態においては、PTZカメラのように撮像方向を実際にチルト方向に動かす場合だけではなく、デワープ処理を行った後の画像の垂直方向に切出し位置を変更することもチルト方向に動かすと称するものとする。
パンスライダー730は、現在の切り出し位置のパンの値を表す。パンつまみ731を、マウス等に代表されるI/O機器331を用いて移動させることで、切り出し位置のパンの値が変更される。つまり、パンの値が変更されると、切り出し画像生成部620は、デワープ処理(歪み補正)を行った後の画像における水平方向(パン方向)に切出し位置を変更する。このように、本実施形態においては、PTZカメラのように撮像方向を実際にパン方向に動かす場合だけではなく、デワープ処理を行った後の画像の水平方向に切出し位置を変更することもパン方向に動かすと称するものとする。
図8は、実施形態1の情報処理の一例を示すフローチャートである。図8に示すフローチャートの処理は、例えば、ビューワ部610から、カメラサーバ110の切り出し画像生成部420、及び、表示制御部430を呼び出して実行することによって行われる。
但し、上述したように、切り出し画像生成部420、及び、表示制御部430の代わりに、ビューワクライアント120上の、切り出し画像生成部620、及び、表示制御部630で処理を行う形態も、適用することができる。以下、説明の簡略化のため、ビューワクライアント120上の、切り出し画像生成部620、及び、表示制御部630が処理を行うものとして説明を行う。
S801にて、ビューワ部610は、ネットワーク130を介して、画像撮像部410へ撮像開始のイベントを発する。イベントを受信した画像撮像部410は、画像キャプチャI/F230を通して、カメラ231から画像データ440を取得し、ネットワーク130を介してビューワ部610へ送信する。次に、ビューワ部610は、画像データ表示部700へ、受信した画像データ440を表示する。
続いて、S802にて、切り出し画像生成部620は、切り出し位置データ660を読み込み、切り出し位置データ660の情報を基に、切り出し画像データ650を生成する。ここで、生成した切り出し画像データ650は、1次記憶装置310に保存され、ビューワ部610が、切り出し映像表示部710に表示する。
続いて、S803にて、表示制御部630は、切り出し位置データ660を基に、画像データ表示部700上に現在の切り出し位置の中心510を重畳する。
続いて、S804にて、表示制御部630は、切り出し位置データ660を基に、切り出し位置の中心が移動する方向を示すマークを重畳表示する。本実施形態においては、図5にある、パン補助線520、及び、チルト補助線530が切り出し位置の中心が、移動する方向を示すマークに相当する。
続いて、S805にて、ビューワ部610は、映像取得を継続するかどうかを判定する。ビューワ部610は、映像取得を継続すると判定した場合(S805においてno)、S801へ進み、映像取得を終了すると判定した場合(S805においてyes)、図8の処理を終了する。
本実施形態の情報処理により、画像データ440上に、切り出し画像データ450の移動方向を示すマーク(本実施形態の例では、パン補助線520、及び、チルト補助線530)を重畳し、画像データ表示部700に表示することができる。その結果、現在の切り出し位置の中心510が、ユーザの操作によって、画像データ440上のどちらに移動するのかが、直感的にわかるようになる。
<実施形態2>
本実施形態では、画像データ表示部700上のパン補助線520、チルト補助線530、及び、チルトスライダー720、パンスライダー730の表示形態について説明する。
本実施形態では、パン補助線520とチルト補助線530とが、それぞれ異なる色や形で示され、これに連動してパンスライダー730とチルトスライダー720との色や形が決定される。ここで、形とは、例えば、波線、点線等である。
図9は、ビューワ部610が表示装置350に表示する、実施形態2のGUIの一例を示す図である。
図9では、チルト補助線530とチルトスライダー720とを、共に点線で表示している。これにより、画像データ440上に重畳表示されている、2つの補助線のうち、どちらが対応するチルト(又はパン)補助線であるのかがユーザに直感的にわかるようになっている。図9に示されるように、パンスライダー730とチルトスライダー720とは、切り出し映像表示部710の近傍に表示されている。ここで、近傍とは、例えば、切り出し映像表示部710から所定範囲内のことである。
<実施形態3>
本実施形態では、切り出し位置が複数個ある場合について説明する。
図10は、ビューワ部610が表示装置350に表示する、実施形態3のGUIの一例を示す図である。図10の例は、切り出し位置が4箇所あり、そのうちパン補助線520、チルト補助線530を表示するフラグ(補助線表示フラグ)を持つ切り出し位置が、切り出し位置の中心510のみの場合に、ビューワ部610が表示するGUIの例である。図10は、切り出し画像データが複数存在する場合のGUIの一例となっている。
切り出し画像表示部1040、1050、1060、及び、1070には、それぞれ切り出し位置の中心510、1010、1020、及び、1030が対応する。
このとき、切り出し位置データ660には、切り出し中心の位置の座標を示す半径、角度に加えて、画像データ440上に補助線を描画するかどうかを示すフラグが、切り出し中心位置ごとに保存される。例えば、ユーザが、I/O機器331を操作し、切り出し画像表示部1040を選択した場合、切り出し画像表示部1040の切り出し位置データには、画像データ440上に補助線を描画するかどうかを示すフラグが保存される。同様に、ユーザが、I/O機器331を操作し、切り出し画像表示部1050を選択した場合、切り出し画像表示部1040の切り出し位置データのフラグは削除され、切り出し画像表示部1050の切り出し位置データにフラグが保存される。
図11は、実施形態3の情報処理の一例を示すフローチャートである。図11に示すフローチャートは、例えば、ビューワ部610から、カメラサーバ110の切り出し画像生成部420、及び、表示制御部430を呼び出して実行することによって行われる。
但し、切り出し画像生成部420、及び、表示制御部430の代わりに、ビューワクライアント120上の、切り出し画像生成部620、及び、表示制御部430で処理を行う形態も、適用することができる。
本実施形態において、本フローチャートの処理は、切り出し位置データ660に保存されている複数の切り出し位置ごとに、それぞれ行われる。
図11における、S801、S803、S804、及び、S805の処理は、図8における、各処理と同等の処理である。
S802にて、切り出し画像データ650が生成され、ビューワ部610が、切り出し映像表示部710に表示したあとに、S1101に進む。
S1101にて、ビューワ部610は、現在の切り出し位置に対応する、補助線を描画するかどうかのフラグがあるか否かを判定する。ビューワ部610は、フラグがある場合(S1101においてyes)、S803へ進み、フラグがない場合(S1101においてno)、S805へ進む。
本実施形態により、複数個の切り出し位置がある場合でも、それぞれに対応する補助線をフラグに応じて重畳表示することで、各切り出し位置の中心510、1010、1020、及び、1030がどちらの方向に動くのかがユーザが直感的にわかるようになる。
ここで、図10の例では、各切り出し画像データの中心位置を示すマークがそれぞれ画像データ上(画像上)に重畳表示されている例を示している。しかし、例えば、表示制御部430は、フラグが設定されている切り出し画像データの中心位置を示すマークは黒色で、フラグが設定されていない切り出し画像データの中心位置を示すマークは異なる色、又は形(破線、点線等)で重畳表示するようにしてもよい。
<実施形態4>
本実施形態では、切り出し映像表示部710上にパン及びチルトの方向を示す補助線を重畳表示する場合について説明する。
図12は、ビューワ部610が表示装置350に表示する、実施形態4のGUIの一例を示す図である。
チルト補助線1210は、切り出し映像表示部710の水平方向の中心に重畳表示される。このチルト補助線1210は、画像データ表示部700に重畳表示されたチルト補助線530と同じ移動方向を示す。
パン補助線1220は、切り出し映像表示部710の垂直方向の中心に重畳表示される。このパン補助線1220は、画像データ表示部700に重畳表示されたパン補助線520と同じ移動方向を示す。
本実施形態により、画像データ表示部700上に重畳された補助線と、切り出し映像表示部710上に重畳された補助線とが、パン方向、及び、チルト方向にそれぞれ対応して表示される。よって、画像データ440と切り出し画像データ450との移動方向をユーザが直感的にわかるようになる。
ここで、本実施形態では、ビューワ部610、又は表示制御部630は、チルト補助線1210及びパン補助線1220の双方を切り出し映像上(部分画像上)に重畳表示するものとして説明を行ったが、何れか一方だけを重畳表示してもよい。
また、図12に示されるように、ビューワ部610、又は表示制御部630は、チルト補助線530とチルトスライダー720とチルト補助線1210とを共に点線で表示している。これにより、画像データ440及び切り出し映像上に重畳表示されている、2つの補助線のうち、どちらが対応するチルト(又はパン)補助線であるのかがユーザに直感的にわかるようになっている。チルト補助線1210及び/又はパン補助線1220は、切り出し画像データの切り出し位置を所定の方向に移動させることができる範囲を示す第3のオブジェクトの一例である。
<実施形態5>
本実施形態では、切り出し領域1310の大きさを変化させた場合について説明する。
図13は、切り出し領域1310が変化した場合の、画像データ440上に表示するチルト補助線の一例を示す図である。
本実施形態では、切り出し位置データ460に、切り出し中心の位置の座標を示す、半径、角度に加えて、切り出し領域の大きさが保存される。
本実施形態における、ビューワ部610が行う情報処理の流れは、図8に示すフローチャートと同様である。
図8のS804にて、表示制御部630は、切り出し位置データ660に保存されている、切り出し領域の大きさに応じて、切り出し位置の中心510が移動可能なチルト範囲を計算し、計算した結果を基にチルト補助線の長さを決定し、重畳表示する。
本実施形態の処理により、画像データ440上に移動可能なチルトの範囲を示す、チルト補助線530が重畳表示されることで、ユーザはより直感的に操作を行うことが可能となる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
上述した各実施形態を任意に組み合わせて実施してもよい。
以上、上述した各実施形態の情報処理等によれば、魚眼映像と切り出し位置の移動方向との関係性をユーザが直感的に把握可能とすることができる。また、ある画像と、その画像の一部に対応する画像との位置関係をユーザが直感的に把握可能とすることができる。
110 カメラサーバ
120 ビューワクライアント
200 CPU
300 CPU

Claims (16)

  1. 撮像手段により撮像された画像データに係る画像を表示手段に表示させる情報処理装置であって、
    前記撮像手段により撮像された画像の一部に対応する部分画像に対応する位置を示す第1のオブジェクトを前記画像上に重畳表示させる第1の表示制御手段と、
    前記画像における前記部分画像の位置を移動させることができる方向を示す第2のオブジェクトを前記画像上に重畳表示させる第2の表示制御手段と、
    を有する情報処理装置。
  2. 前記部分画像の画像が複数存在する場合、前記第1の表示制御手段は、各部分画像の中心位置を示す第1のオブジェクトを、前記画像上にそれぞれ重畳表示させ、前記第2の表示制御手段は、複数の前記部分画像のうち、選択された前記部分画像の前記第2のオブジェクトを、前記画像上に重畳表示させる請求項1記載の情報処理装置。
  3. 前記部分画像の画像が複数存在する場合、前記第1の表示制御手段は、複数の前記部分画像のうち、選択された前記部分画像の中心位置を示す第1のオブジェクトを、選択されていない前記部分画像の中心位置を示す第1のオブジェクトとは異なる色、又は形で前記画像上に重畳表示させ、前記第2の表示制御手段は、前記複数の部分画像のうち、選択された部分画像の前記第2のオブジェクトを、前記画像上に重畳表示させる請求項1記載の情報処理装置。
  4. 前記画像における部分画像の大きさが変更された場合、前記第2の表示制御手段は、前記第2のオブジェクトが示す範囲を変更し、前記画像上に重畳表示させる請求項1乃至3何れか1項記載の情報処理装置。
  5. 前記第2の表示制御手段は、前記第2のオブジェクトとして、パン方向を示すオブジェクト、又は、チルト方向を示すオブジェクトを前記画像上に重畳表示させる請求項1乃至4何れか1項記載の情報処理装置。
  6. 前記第2の表示制御手段は、前記第2のオブジェクトとして、パン方向を示すオブジェクト、及び、チルト方向を示すオブジェクトを前記画像上に重畳表示させる請求項1乃至4何れか1項記載の情報処理装置。
  7. 前記第2の表示制御手段は、前記パン方向を示すオブジェクト、及び、前記チルト方向を示すオブジェクトを前記画像上に重畳表示させる際は、それぞれ異なる色、又は形で重畳表示させる請求項6記載の情報処理装置。
  8. 前記第2の表示制御手段は、前記パン方向を示すオブジェクトの色、又は形で前記画像における前記部分画像の位置のパンの値を表すパンスライダーを前記部分画像の近傍に表示させ、前記チルト方向を示すオブジェクトの色、又は形で前記画像における前記部分画像のチルトの値を表すチルトスライダーを前記部分画像の近傍に表示させる請求項7記載の情報処理装置。
  9. 前記第2の表示制御手段は、前記画像における前記部分画像の位置を所定の方向に移動させることができる範囲を示す第3のオブジェクトを前記部分画像上に重畳表示させる請求項1乃至8何れか1項記載の情報処理装置。
  10. 前記第2の表示制御手段は、前記第3のオブジェクトとして、パン方向を示すオブジェクト、又は、チルト方向を示すオブジェクトを前記部分画像上に重畳表示させる請求項9記載の情報処理装置。
  11. 前記第2の表示制御手段は、前記第2のオブジェクトとして、パン方向を示すオブジェクト、及び、チルト方向を示すオブジェクトを前記部分画像上に重畳表示させる請求項9記載の情報処理装置。
  12. 前記第2の表示制御手段は、前記パン方向を示すオブジェクト、及び、前記チルト方向を示すオブジェクトを前記切り出し画像上に重畳表示させる際は、それぞれ異なる色、又は形で重畳表示させる請求項11記載の情報処理装置。
  13. 前記画像は、前記撮像手段によって魚眼レンズを用いて撮像された画像である請求項1乃至12何れか1項記載の情報処理装置。
  14. 撮像手段により撮像された画像データに係る画像は、前記撮像手段により撮像された画像、又は、前記撮像手段により撮像された画像を模式的に示した図である請求項1乃至13何れか1項記載の情報処理装置。
  15. 撮像手段により撮像された画像データに係る画像を表示手段に表示させる情報処理装置が実行する情報処理方法であって、
    前記撮像手段により撮像された画像の一部に対応する部分画像に対応する位置を示す第1のオブジェクトを前記画像上に重畳表示させる第1の表示制御工程と、
    前記画像における前記部分画像の位置を移動させることができる方向を示す第2のオブジェクトを前記画像上に重畳表示させる第2の表示制御工程と、
    を含む情報処理方法。
  16. コンピュータを、請求項1乃至14何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。
JP2016251042A 2016-12-26 2016-12-26 情報処理装置、情報処理方法及びプログラム Active JP6786378B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016251042A JP6786378B2 (ja) 2016-12-26 2016-12-26 情報処理装置、情報処理方法及びプログラム
SG10201710217TA SG10201710217TA (en) 2016-12-26 2017-12-08 Information processing apparatus and information processing method
EP17206355.4A EP3340606B1 (en) 2016-12-26 2017-12-11 Information processing apparatus and information processing method
US15/842,613 US10497160B2 (en) 2016-12-26 2017-12-14 Information processing apparatus and information processing method
KR1020170176683A KR102183803B1 (ko) 2016-12-26 2017-12-21 정보 처리장치 및 정보 처리방법
CN201711432815.7A CN108243310B (zh) 2016-12-26 2017-12-26 信息处理装置和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016251042A JP6786378B2 (ja) 2016-12-26 2016-12-26 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018107583A true JP2018107583A (ja) 2018-07-05
JP2018107583A5 JP2018107583A5 (ja) 2020-01-30
JP6786378B2 JP6786378B2 (ja) 2020-11-18

Family

ID=60673134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016251042A Active JP6786378B2 (ja) 2016-12-26 2016-12-26 情報処理装置、情報処理方法及びプログラム

Country Status (6)

Country Link
US (1) US10497160B2 (ja)
EP (1) EP3340606B1 (ja)
JP (1) JP6786378B2 (ja)
KR (1) KR102183803B1 (ja)
CN (1) CN108243310B (ja)
SG (1) SG10201710217TA (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9009805B1 (en) * 2014-09-30 2015-04-14 Google Inc. Method and system for provisioning an electronic device
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10410086B2 (en) 2017-05-30 2019-09-10 Google Llc Systems and methods of person recognition in video streams
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
JP7130385B2 (ja) * 2018-02-19 2022-09-05 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003241263A (ja) * 2002-02-22 2003-08-27 Fuji Photo Film Co Ltd 監視装置及び撮像装置
JP2006222721A (ja) * 2005-02-10 2006-08-24 Canon Inc 情報処理装置、情報処理方法及びそのプログラム
WO2007055335A1 (ja) * 2005-11-11 2007-05-18 Sony Corporation 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体
JP2012054883A (ja) * 2010-09-03 2012-03-15 Canon Inc 撮像制御システム、制御装置、制御方法、及び、プログラム
JP2013034142A (ja) * 2011-08-03 2013-02-14 Nippon Seiki Co Ltd 周辺画像表示装置
JP2013239986A (ja) * 2012-05-17 2013-11-28 Panasonic Corp 補助情報生成装置、撮影画像表示システム、補助情報生成方法、撮影画像表示方法、及びコンピュータプログラム
JP2014241496A (ja) * 2013-06-11 2014-12-25 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、及びプログラム
JP2015230625A (ja) * 2014-06-05 2015-12-21 キヤノン株式会社 画像表示装置
US20160353021A1 (en) * 2015-05-28 2016-12-01 Canon Kabushiki Kaisha Control apparatus, display control method and non-transitory computer readable medium

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6833843B2 (en) * 2001-12-03 2004-12-21 Tempest Microsystems Panoramic imaging and display system with canonical magnifier
US8427538B2 (en) * 2004-04-30 2013-04-23 Oncam Grandeye Multiple view and multiple object processing in wide-angle video camera
CN101305595B (zh) * 2005-11-11 2011-06-15 索尼株式会社 图像处理设备以及图像处理方法
JP5338498B2 (ja) * 2009-06-09 2013-11-13 ソニー株式会社 監視カメラシステムで使用される制御装置、カメラシステム及びプログラム
JP2011091571A (ja) 2009-10-21 2011-05-06 Olympus Imaging Corp 動画像作成装置及び動画像作成方法
US9055205B2 (en) * 2010-09-03 2015-06-09 Canon Kabushiki Kaisha Imaging control system, control apparatus, control method, and storage medium
JP5678324B2 (ja) 2011-02-10 2015-03-04 パナソニックIpマネジメント株式会社 表示装置、コンピュータプログラム、及び表示方法
JP6041513B2 (ja) * 2012-04-03 2016-12-07 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5921331B2 (ja) 2012-05-21 2016-05-24 キヤノン株式会社 撮像装置、マスク画像の重畳方法、および、プログラム
JP5835384B2 (ja) * 2014-03-18 2015-12-24 株式会社リコー 情報処理方法、情報処理装置、およびプログラム
JP6381265B2 (ja) * 2014-04-14 2018-08-29 キヤノン株式会社 情報処理装置、表示方法、及びプログラム
JP6460310B2 (ja) 2014-09-18 2019-01-30 カシオ計算機株式会社 撮像装置、画像表示方法及びプログラム
KR20160075135A (ko) * 2014-12-19 2016-06-29 현대모비스 주식회사 자동차 물체인식 시스템 및 그 동작방법
JP6726931B2 (ja) * 2015-03-20 2020-07-22 キヤノン株式会社 画像処理装置およびその方法、並びに、画像処理システム
JP6597259B2 (ja) * 2015-12-10 2019-10-30 株式会社リコー プログラム、情報処理装置、画像表示方法、画像処理システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003241263A (ja) * 2002-02-22 2003-08-27 Fuji Photo Film Co Ltd 監視装置及び撮像装置
JP2006222721A (ja) * 2005-02-10 2006-08-24 Canon Inc 情報処理装置、情報処理方法及びそのプログラム
WO2007055335A1 (ja) * 2005-11-11 2007-05-18 Sony Corporation 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体
JP2012054883A (ja) * 2010-09-03 2012-03-15 Canon Inc 撮像制御システム、制御装置、制御方法、及び、プログラム
JP2013034142A (ja) * 2011-08-03 2013-02-14 Nippon Seiki Co Ltd 周辺画像表示装置
JP2013239986A (ja) * 2012-05-17 2013-11-28 Panasonic Corp 補助情報生成装置、撮影画像表示システム、補助情報生成方法、撮影画像表示方法、及びコンピュータプログラム
JP2014241496A (ja) * 2013-06-11 2014-12-25 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、及びプログラム
JP2015230625A (ja) * 2014-06-05 2015-12-21 キヤノン株式会社 画像表示装置
US20160353021A1 (en) * 2015-05-28 2016-12-01 Canon Kabushiki Kaisha Control apparatus, display control method and non-transitory computer readable medium

Also Published As

Publication number Publication date
CN108243310B (zh) 2020-12-15
KR102183803B1 (ko) 2020-11-27
KR20180075411A (ko) 2018-07-04
US10497160B2 (en) 2019-12-03
CN108243310A (zh) 2018-07-03
US20180182148A1 (en) 2018-06-28
SG10201710217TA (en) 2018-07-30
JP6786378B2 (ja) 2020-11-18
EP3340606B1 (en) 2020-07-01
EP3340606A1 (en) 2018-06-27

Similar Documents

Publication Publication Date Title
JP2018107583A (ja) 情報処理装置、情報処理方法及びプログラム
JP6065195B2 (ja) 表示映像形成装置及び表示映像形成方法
EP3367662B1 (en) Control device, camera system, and program
US10297005B2 (en) Method for generating panoramic image
JP2011061511A (ja) 魚眼監視システム
JP2011205573A (ja) 制御装置、カメラシステム及びプログラム
JP2018007150A (ja) 撮像装置、撮像装置の制御方法、及び、プログラム
JP6381265B2 (ja) 情報処理装置、表示方法、及びプログラム
JP2019054369A (ja) 撮像装置、撮像装置の制御方法及びプログラム
KR20120008827A (ko) 팬/틸트/줌 기능 일체형 동시감시카메라 및 이를 이용한 감시시스템
JP6269014B2 (ja) フォーカス制御装置およびフォーカス制御方法
JP7210188B2 (ja) 情報処理システム、制御装置及び情報処理方法
JP6826481B2 (ja) 映像表示装置、映像表示装置の制御方法及びプログラム
JP2014212443A (ja) 画像処理装置及び画像処理方法
JP5963571B2 (ja) 画像表示装置及び監視カメラシステム
JP6261191B2 (ja) 表示制御装置、表示制御方法、プログラム
JP2016096482A (ja) 画像処理装置、画像処理方法、及びプログラム
KR20170055455A (ko) 초광각 카메라를 이용한 렌즈 왜곡 영상 보정 카메라 시스템 및 그가 적용된 tvi 장치
JP5939902B2 (ja) 制御装置及び制御装置の制御方法
JP6128966B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR102498870B1 (ko) 카메라 시스템 및 그의 영상처리방법
JP2015228549A (ja) カメラ制御を行うための情報処理装置およびその方法、プログラム、記憶媒体
JP2020071614A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US20190279334A1 (en) Image processing apparatus and image processing method
JP2023016580A (ja) 撮像システム、撮像方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201028

R151 Written notification of patent or utility model registration

Ref document number: 6786378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151