JP2020145590A - 画像処理システム、画像処理方法及びプログラム - Google Patents

画像処理システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2020145590A
JP2020145590A JP2019040840A JP2019040840A JP2020145590A JP 2020145590 A JP2020145590 A JP 2020145590A JP 2019040840 A JP2019040840 A JP 2019040840A JP 2019040840 A JP2019040840 A JP 2019040840A JP 2020145590 A JP2020145590 A JP 2020145590A
Authority
JP
Japan
Prior art keywords
image
range
unit
partial
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019040840A
Other languages
English (en)
Other versions
JP7326774B2 (ja
Inventor
善幸 戸田
Yoshiyuki Toda
善幸 戸田
朋弘 池田
Tomohiro Ikeda
朋弘 池田
加藤 喜永
Yoshinaga Kato
喜永 加藤
慎 鳥越
Shin Torigoe
慎 鳥越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019040840A priority Critical patent/JP7326774B2/ja
Priority to US16/804,241 priority patent/US11102448B2/en
Publication of JP2020145590A publication Critical patent/JP2020145590A/ja
Application granted granted Critical
Publication of JP7326774B2 publication Critical patent/JP7326774B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/12Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
    • H04N7/127Systems in which different parts of the picture signal frequency band are individually processed, e.g. suppressed, transposed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】効率的に通信帯域を使用することを目的とする。【解決手段】広角画像を撮像する撮像装置と、前記撮像装置と接続する情報処理装置とを有する画像処理システムでは、前記撮像装置は、前記広角画像の一部を示す第1画像を生成する第1画像生成部と、前記情報処理装置が表示する第1範囲に、前記第1画像が示す第2範囲が含まれるか否かを判断する判断部と、前記第1範囲に、前記第2範囲が含まれない場合には、前記第1画像を低精細にした第2画像を生成する第2画像生成部と、前記広角画像を低精細にした第3画像を生成する第3画像生成部と、前記第2画像及び前記第3画像を前記情報処理装置に送信する送信部とを備え、前記情報処理装置は、前記第1範囲に、前記第2範囲が含まれない場合には、前記第2画像及び前記第3画像を前記撮像装置から受信する受信部と、前記第2画像及び前記第3画像に基づく出力を行う出力部とを備える。【選択図】図1

Description

本発明は、画像処理システム、画像処理方法及びプログラムに関するものである。
従来、ネットワーク等を介して、サーバからクライアントに、複数の映像データを配信する方法が知られている。
例えば、映像データを受信及び表示するクライアントにおいて、アクティブウィンドウで表示する映像データか否かの再生状態が判断される。そして、アクティブウィンドウに表示しない映像データを送るビットレートを低くして、有効なストリーム映像の画質に与える影響を少なくする方法が知られている(例えば、特許文献1参照)。
しかしながら、従来の方法は、広い視野角で撮像された画像(以下「広角画像」という。)を表示する場合を想定していない。具体的には、表示の対象となる画像が、広角画像であると、ユーザは、表示する範囲を指定する場合が多い。このように、表示する範囲を指定してユーザが見る画像等の場合には、従来の方法では、通信帯域の使用が効率的でない場合が多い。
本発明の1つの側面は、画像の配信において、効率的に通信帯域を使用することを目的とする。
上述した課題を解決するために、本発明の一態様である、広角画像を撮像する撮像装置と、前記撮像装置と接続する情報処理装置とを有する画像処理システムでは、
前記撮像装置は、
前記広角画像の一部を示す第1画像を生成する第1画像生成部と、
前記情報処理装置が表示する第1範囲に、前記第1画像が示す第2範囲が含まれるか否かを判断する判断部と、
前記第1範囲に、前記第2範囲が含まれない場合には、前記第1画像を低精細にした第2画像を生成する第2画像生成部と、
前記広角画像を低精細にした第3画像を生成する第3画像生成部と、
前記第2画像及び前記第3画像を前記情報処理装置に送信する送信部と
を備え、
前記情報処理装置は、
前記第1範囲に、前記第2範囲が含まれない場合には、前記第2画像及び前記第3画像を前記撮像装置から受信する受信部と、
前記第2画像及び前記第3画像に基づく出力を行う出力部と
を備えることを特徴とする。
画像の配信において、効率的に通信帯域を使用できる。
画像処理システムの全体構成例を示す図である。 撮像装置のハードウェア構成例を示すブロック図である。 情報処理装置のハードウェア構成例を示すブロック図である。 撮像装置の機能構成例を示すブロック図である。 情報処理装置の機能構成例を示すブロック図である。 撮像装置による処理の例を示すフロー図である。 部分パラメータの例を示す図である。 送信データの例を示す図である。 情報処理装置による処理の例を示すフロー図である。 部分立体球の生成例を示す図である。 部分立体球を用いない例を示す図である。 部分立体球を用いる例を示す図である。 比較例を示す図である。 部分画像を用いる例を示す図である。 第2実施形態における複数の部分画像が示す範囲及び表示範囲の例を示す図である。 第2実施形態における送信データの例を示す図である。 高精細に表示する範囲を追加及び削除する操作画面の例を示す図である。
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付し、重複する説明を省略する。
<第1実施形態>
<全体構成例>
図1は、画像処理システムの全体構成例を示す図である。例えば、画像処理システム10は、撮像装置の例である全天球撮像装置1と、情報処理装置の例であるスマートフォン2とを有する。図示するように、全天球撮像装置1及びスマートフォン2は、有線、無線又はこれらの組み合わせによるネットワーク等によって接続され、画像データ等のデータを送受信することができる。
そして、全天球撮像装置1が撮像して生成する画像は、画像データがスマートフォン2に送られる。このようにして送られた画像データに基づいて、画像が表示されると、ユーザは、スマートフォン2が表示する画像を見ることができる。
全天球撮像装置1は、例えば、図示するように、2つの撮像素子を使用した全天球(全方位)撮像装置であるのが望ましい。なお、撮像素子は、3つ以上でもよい。また、撮像装置は、全方位を撮像する専用の装置でなくともよい。つまり、撮像装置は、デジタルカメラ又はスマートフォン等に、後付けの全方位の撮像ユニット等を取り付けることで、全天球撮像装置1と同様に、広角画像を撮像できる装置でもよい。
また、スマートフォン2は、例えば、PC又はタブレット等でもよい。
<撮像装置のハードウェア構成例>
図2は、撮像装置のハードウェア構成例を示すブロック図である。例えば、全天球撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit、以下「CPU111」という。)、ROM(Read−Only Memory、以下「ROM112」という。)、SRAM(Static Random Access Memory、以下「SRAM113」という。)、DRAM(Dynamic Random Access Memory、以下「DRAM114」という。)、操作部115、ネットワークI/F116、通信部117、アンテナ117a及び電子コンパス118等を有するハードウェア構成である。
撮像ユニット101は、例えば、レンズ102a及びレンズ102b等の光学部品を有する。また、撮像ユニット101は、レンズ102a及びレンズ102bに対応させて、撮像素子103a及び撮像素子103bを有する。
レンズ102a及びレンズ102bは、いわゆる広角レンズである。そして、レンズ102a及びレンズ102bは、それぞれの撮像素子が画像を結像できるように、例えば、180 °以上の広い画角を有し、広角画像が撮像できる広角レンズ又は魚眼レンズであるのが望ましい。
撮像素子103a及び撮像素子103bは、レンズ102a及びレンズ102bによる光学像を変換して画像データを生成する。具体的には、撮像素子103a及び撮像素子103bは、CMOS(Complementary Metal Oxide Semiconductor)センサ又はCCD(Charge Coupled Device)等の光学センサ等である。また、撮像ユニット101は、画素クロック等を生成するタイミング生成回路等を有してもよい。さらに、撮像ユニット101は、撮像素子等を動作するのに用いるコマンド及びパラメータ等を設定するレジスタ等を有してもよい。
撮像素子103a及び撮像素子103bは、画像処理ユニット104とパラレルI/Fバス等で接続する。また、撮像素子103a及び撮像素子103bは、撮像制御ユニット105とシリアルI/Fバス(例えば、I2Cバス等である。)で接続する。
さらに、画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109等は、バス110を介してCPU111と接続する。同様に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117及び電子コンパス118等が接続する。
画像処理ユニット104は、例えば、画像データを画像処理する電子回路等である。例えば、画像処理ユニット104は、撮像素子103a及び撮像素子103bが出力する画像データをパラレルI/Fバスを介して取得する。そして、画像処理ユニット104は、それぞれの画像データに対して所定の処理を行う。次に、処理が行われた後、画像処理ユニット104は、これらの画像データを合成して処理正距円筒射影画像のデータ等を生成する。
撮像制御ユニット105は、例えば、撮像制御ユニット105をマスタデバイスとし、撮像素子103a及び撮像素子103bをスレーブデバイスとする構成において、I2Cバスを利用して、撮像素子103a及び撮像素子103bが有するレジスタにコマンド等を設定する。例えば、コマンド等は、CPU111等から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a及び撮像素子103bが有するレジスタに設定されたステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115等が有するシャッタボタン等を押す操作があると、シャッタボタンが押されたタイミングで、撮像素子103a及び撮像素子103bに、シャッタを切って、画像データの出力するように指示する。
なお、全天球撮像装置1は、ディスプレイ(例えば、スマートフォン2が有するディスプレイ等である。)により、プレビューを表示する機能又は動画を表示する機能等を持つ場合もある。このような場合には、撮像素子103a及び撮像素子103bによる画像データの出力は、あらかじめ設定されるフレームレート等に応じて、連続して行われる。
また、撮像制御ユニット105は、CPU111等と協働して、撮像素子103a及び撮像素子103bが画像データを出力するそれぞれのタイミングを同期させる同期制御手段等として機能してもよい。
マイク108は、音をデータに変換する入力装置の例である。
音処理ユニット109は、例えば、電子回路等である。例えば、音処理ユニット109は、マイク108が出力する音データをI/Fバスを介して取得する。次に、音処理ユニット109は、音データに対して所定の処理を行う。
CPU111は、演算装置及び制御装置の例である。例えば、CPU111は、全天球撮像装置1の全体を制御する。なお、CPU111は、単数でもよいし、複数でもよい。
ROM112は、プログラム等を記憶する記憶装置の例である。
SRAM113及びDRAM114は、主記憶装置の例である。例えば、SRAM113及びDRAM114は、ワークメモリとなり、CPU111が用いるプログラム及びデータ等を記憶する。特に、DRAM114は、画像処理ユニット104が処理している途中の画像データ及び処理済みの正距円筒射影画像のデータ等を記憶する。
操作部115は、スイッチ等の入力装置である。例えば、操作部115は、モード又は撮像条件等を設定するユーザの操作等を受け付ける。
ネットワークI/F116は、外部装置とデータを送受信するインタフェースである。例えば、ネットワークI/F116は、コネクタ及び処理を行う電子回路等である。具体的には、ネットワークI/F116は、USB(Universal Serial Bus)又はメディアを受け付けるドライブ等である。なお、ネットワークI/F116は、アンテナ等を用いて無線でデータを送受信してもよい。
通信部117は、外部装置と通信を行う電子回路等である。例えば、通信部117は、アンテナ117aによって無線で外部装置とデータを送受信する。具体的には、通信部117は、Wi−Fi(登録商標)又はBluetooth(登録商標)等によって通信を行う。
電子コンパス118は、地球の磁気等に基づいて、全天球撮像装置1の方位を算出するセンサである。そして、電子コンパス118が出力する方位情報は、例えば、Exif(登録商標)に準じた関連情報(メタデータ)等である。そして、関連情報等は、画像の補正等に利用される。なお、関連情報には、画像が撮像された日時及びデータ容量等を示すデータが含まれてもよい。
なお、撮像装置は、図示するハードウェア構成に限られない。例えば、撮像装置は、ディスプレイ等を更に有するハードウェア構成等でもよい。
ほかにも、撮像装置は、例えば、ジャイロセンサ及び加速度センサ等のセンサを有してもよい。また、撮像装置は、外部装置を接続させるのに用いる端子等を有してもよい。
また、撮像装置及び情報処理装置は、図示する以外のハードウェア資源を外部又は内部に更に有してもよい。
<情報処理装置のハードウェア構成例>
図3は、情報処理装置のハードウェア構成例を示すブロック図である。例えば、スマートフォン2は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、加速度・方位センサ506、メディアI/F508及びGPS受信部509等を有するハードウェア構成である。
CPU501は、演算装置及び制御装置の例である。例えば、CPU501は、全天球撮像装置1の全体を制御する。なお、CPU501は、単数でもよいし、複数でもよい。
ROM502は、プログラム等を記憶する記憶装置の例である。
RAM503は、ワークメモリとなる主記憶装置の例である。
EEPROM504は、プログラム及びデータ等を記憶する記憶装置の例である。
CMOSセンサ505は、光学センサの例である。
加速度・方位センサ506は、磁気等に基づいて方位を算出するセンサ及び加速度を検出するセンサの例である。
メディアI/F508は、メディア507に対して書き込み及び読み出しを行うインタフェースである。
GPS受信部509は、衛星からGPS信号等を受信する入力装置の例である。
さらに、例えば、スマートフォン2は、遠距離通信回路511、カメラ512、撮像素子I/F513、マイク514、スピーカ515、音入出力I/F516、ディスプレイI/F517、外部機器接続I/F518、近距離通信回路519、アンテナ519a及びタッチパネル521等を有するハードウェア構成である。
遠距離通信回路511は、インターネット等のネットワークによって外部装置と通信を行う電子回路等である。
撮像素子I/F513は、カメラ512等を制御する電子回路等である。
音入出力I/F516は、マイク514及びスピーカ515によって音を入力及び出力する電子回路等である。
ディスプレイI/F517は、ディスプレイ等の出力装置を接続するインタフェースである。
外部機器接続I/F518は、外部装置を接続するインタフェースである。
近距離通信回路519は、アンテナ519aによって、外部装置と通信を行う電子回路等である。
タッチパネル521は、ユーザに対して画像を表示する出力装置の例である。さらに、タッチパネル521は、ユーザが行う操作を受け付ける入力装置の例である。
以上のようなハードウェア資源がバスライン510等によって接続し、データを送受信する。
<撮像装置の機能構成例>
図4は、撮像装置の機能構成例を示すブロック図である。例えば、全天球撮像装置1は、送受信部11、部分画像パラメータ作成部12、撮像制御部13、撮像部14a、撮像部14b、画像処理部15、一時記憶部16、低精細変更部17、射影方式変換部18及び符号化部19等を有する機能構成である。例えば、これらの機能部は、SRAM113、DRAM114及びCPU111等で実現する。
送受信部11は、情報処理装置等の外部装置にデータを送信又は外部装置からデータを受信する。具体的には、送受信部11は、スマートフォン2に対して、画像データ及び部分画像パラメータ等を送信する。
部分画像パラメータ作成部12は、スマートフォン2等から送られる指示データに基づいて部分画像パラメータ等を作成する。指示データは、ユーザが入力する、重畳領域を特定するデータである。
撮像制御部13は、撮像部14a及び撮像部14bが画像を出力するタイミングの同期をとる制御等を行う。
撮像部14a及び撮像部14bは、撮像制御部13による指示に基づいて、被写体等を撮像し、広角画像を生成するのに用いられる半球画像を出力する。以下、半球画像を「半球画像IMG1」及び「半球画像IMG2」という。
画像処理部15は、例えば、2つの半球画像を用いて、正距円筒射影方式の画像である正距円筒射影画像のデータに合成する変換等を行う。
一時記憶部16は、正距円筒射影画像のデータを記憶する。なお、正距円筒射影画像は、比較的高精細である。
低精細変更部17は、指示データに基づいて、例えば、画像の縮小等により、高精細画像から低精細画像に変更した画像データを生成する。以下、低精細変更部17が生成する低精細な正距円筒射影画像を「全体画像IMG3」という。
高精細画像は、例えば、2K、4K又は8Kのいずれかの正距離円筒射影である。一方で、低精細変更部17が生成する全体画像IMG3は、例えば1K、2K又は4K等のように、高精細画像よりも低精細(低解像度)な画像である。
射影方式変換部18は、指示データD1に基づいて、全体画像IMG3の一部を示す画像(以下「部分画像」という。)を生成する。例えば、指示データD1は、部分画像となる範囲を特定する方向及び画角等を示す。さらに、指示データD1は、部分画像のアスペクト及び画像データのサイズ等を示す。このようなパラメータが入力された指示データD1に基づいて、射影方式変換部18は、正距円筒射影方式を透視射影方式に射影方式変換する。
符号化部19は、全体画像及び部分画像等のデータを符号化する。
低精細変換部20は、表示範囲D2が示す範囲に、部分画像が示す範囲が含まれるか否かを判断する。そして、表示範囲D2が示す範囲に、部分画像が示す範囲が含まれると判断すると、低精細変換部20は、一時記憶部16が記憶する画像の解像度を維持させる等によって、部分画像(高精細画像)IMG41を生成する。一方で、表示範囲D2が示す範囲に、部分画像が示す範囲が含まれないと判断すると、低精細変換部20は、部分画像(低精細画像)IMG42を生成する。なお、部分画像を複数生成する場合には、低精細変換部20は、それぞれの部分画像について判断を行い、部分画像(高精細画像)IMG41を生成するか、又は、部分画像(低精細画像)IMG42を生成するかを判断する。
表示範囲D2は、例えば、ユーザがスマートフォン2等で指示する範囲である。例えば、表示範囲D2は、表示する画角等を示すデータである。なお、表示範囲D2は座標等で指示されてもよい。
<情報処理装置の機能構成例>
図5は、情報処理装置の機能構成例を示すブロック図である。例えば、スマートフォン2は、送受信部51、受付部52、復号化部53、重畳領域作成部54、画像作成部55、画像重畳部56、射影方式変換部57、表示制御部58及び表示範囲指示部59等を有する機能構成である。例えば、これらの機能部は、EEPROM504、RAM503及びCPU501等で実現する。
送受信部51は、外部装置とデータを送受信する。例えば、送受信部51は、全天球撮像装置1が送る画像データを受信する。さらに、送受信部51は、全天球撮像装置1に指示データD1及び表示範囲D2等を送信する。なお、送受信部51は、全天球撮像装置1が送るデータが複数のデータを含む場合には、データの種類ごとにデータを分離してもよい。例えば、全天球撮像装置1が送るデータが、全体画像、部分画像及び部分画像パラメータD3とまとめて送る場合には、全体画像、部分画像及び部分画像パラメータD3を異なるデータとなるように分離する。
受付部52は、ユーザによる部分画像が表示する方向、画角、アスペクト及び画像データのサイズ等といった条件を指定する操作等を受け付ける。
復号化部53は、符号化されて全天球撮像装置1から送信されたデータを復号化する。
重畳領域作成部54は、部分画像パラメータD3等に基づいて定まる重畳領域を作成する。
重畳領域は、重畳画像S及びマスク画像Mの重畳位置及び重畳範囲を示す。詳細は後述する。
画像作成部55は、重畳領域に基づいて、重畳画像S及びマスク画像Mを作成する。さらに、画像作成部55は、全体画像に基づいて全天球画像CE等を作成する。
画像重畳部56は、全天球画像CE上の重畳領域に対して、重畳画像S及びマスク画像Mを重畳することで、最終的に表示する全天球画像CEを作成する。
射影方式変換部57は、受付部52が受け付けた条件に基づいて、全天球画像CEを透視射影方式の画像に変換する。
表示制御部58は、透視射影方式に変換後の画像等(以下「表示画像IMGV」という。)を表示する制御を行う。
表示範囲指示部59は、表示範囲D2を検出する。例えば、表示範囲D2は、画角等の形式で検出される。例えば、表示範囲指示部59は、表示範囲D2が変化すると、表示範囲D2を検出して送受信部51に通知する。そして、送受信部51は、表示範囲D2が通知されるごとに、全天球撮像装置1に表示範囲D2を送信する。
<全体処理例>
全体処理において、まず、全天球撮像装置が以下のような処理を行う。
図6は、撮像装置による処理の例を示すフロー図である。全体処理が開始すると、例えば、全天球撮像装置は、ステップS110の処理を開始する。
ステップS110では、全天球撮像装置は、撮像により、半球画像IMG1及び半球画像IMG2を生成する。
ステップS120では、全天球撮像装置は、半球画像IMG1及び半球画像IMG2を合成する。例えば、全天球撮像装置は、2つの半球画像データを正距円筒射影方式の画像である正距円筒射影画像のデータに合成変換する。このように、合成によって生成する高精細な画像であって、広角な範囲を示す画像が広角画像IMG5である。図4に示す例では、広角画像IMG5が一時記憶部16に記憶される。
ステップS130では、全天球撮像装置は、指示データD1に基づいて部分画像パラメータD3を作成する。部分画像パラメータD3の詳細は、後述する。
ステップS140では、全天球撮像装置は、指示データD1に基づいて、高精細画像から低精細画像に変更して、全体画像IMG3(低精細画像)を生成する。
ステップS150では、全天球撮像装置は、表示範囲D2に基づいて、部分画像(高精細画像)IMG41を生成する、又は、部分画像(低精細画像)IMG42を生成する。つまり、全天球撮像装置は、表示範囲D2に、部分画像が示す範囲が含まれる場合には、部分画像(高精細画像)IMG41を生成する。一方で、全天球撮像装置は、表示範囲D2に、部分画像が示す範囲が含まれない場合には、部分画像(低精細画像)IMG42を生成する。つまり、表示範囲D2の閲覧範囲内に、部分画像が表示されるか否かで、部分画像の解像度を切り分ける。
<部分パラメータの例及び部分画像の生成例>
図7は、部分パラメータの例を示す図である。以下、図7(a)に示すような広角画像IMG5を用いる場合の例で説明する。また、図7(a)では、横軸が方位角となる「緯度λ」を示し、縦軸が仰角となる「経度φ」を示す。
図7(b)は、部分画像パラメータD3の例である。図示するように、部分画像パラメータD3は、図7(c)のように、部分画像となる範囲を特定するパラメータである。なお、部分画像パラメータD3は、図示するように、部分画像となる範囲が特定できるパラメータであればよい。したがって、部分画像パラメータD3は、図7(b)に示す形式に限られない。例えば、アスペクト等の値は、固定でもよい。
図7(c)に示すように、部分画像パラメータD3があると、部分画像(高精細画像)IMG41等が、広角画像IMG5から切り出されて生成される。
この例では、全天球撮像装置は、正距円筒射影画像によって立体球を被うことで、全天球画像を作成する。よって、正距円筒射影画像が有する各画素データは、3次元の全天球画像の立体球の表面における各画素データに対応させることができる。そこで、射影方式変換部による変換式は、正距円筒射影画像における座標を(緯度,経度)=(e,a)と表現し、3次元の立体球上の座標を直交座標(x,y,z)とすると、直交座標(x,y,z)は、例えば、下記(1)式のようになる。

(x,y,z)=(cos(e)×cos(a),cos(e)×sin(a),sin(e)) ・・・(1)

上記(1)式において、立体球の半径は「1」とする。
一方で、透視射影画像である部分画像は、2次元画像である。部分画像を2次元の極座標(動径,偏角)=(r,a)で表現すると、動径「r」は、対角画角に対応する。そして、動径「r」は、取り得る範囲が「0≦r≦tan(対角画角/2)」となる。また、部分画像を2次元の直交座標系(u,v)で示すと、直交座標系(u,v)及び極座標(動径,偏角)=(r,a)の変換関係は、下記(2)式のようになる。

u=r×cos(a),v=r×sin(a) ・・・(2)

次に、上記(1)式を3次元の座標(動径,極角,方位角)に対応させる。
立体球CSの表面のみを考えると、3次元極座標における動径は「1」である。また、立体球CSの表面に張り付けた正距円筒射影画像を透視射影変換する射影は、立体球の中心に仮想カメラがあると考えると、上記の2次元極座標(動径,偏角)=(r,a)を使うと、下記(3)式及び下記(4)式のように示せる。

R=tan(極角) ・・・(3)
a=方位角 ・・・(4)

上記(3)式において、極角を「t」とすると、「t=arctan(r)」となる。そのため、3次元極座標(動径、極角、方位角)は、(動径、極角、方位角)=(1,arctan(r),a)となる。
また、3次元極座標から、直交座標系(x,y,z)へ変換する変換式は、例えば、下記(5)式等である。

(x,y,z)=(sin(t)×cos(a),sin(t)×sin(a),cos(t)) ・・・(5)

上記(5)式に示す変換によって、正距円筒射影方式による全体画像と、透視射影方式による部分画像は、相互に変換ができる。すなわち、部分画像の対角画角に対応する動径「r」を用いると、部分画像の各画素が、正距円筒射影画像のどの座標に対応するかを示す変換マップ座標が算出できる。この変換マップ座標に基づいて、正距円筒射影画像から、透視射影画像である部分画像等を生成することができる。
また、上記に示す射影方式の変換は、正距円筒射影画像の(緯度,経度)が(90 °,0 °)となる位置が、透視射影画像である部分画像の中心点となるような変換である。
そこで、正距円筒射影画像における任意の点を注視点とし、透視射影変換をする場合は、正距円筒射影画像を貼り付けた立体球を回転させる。このようにして、注視点の座標(緯度、経度)が(90 °,0 °)の位置に配置されるような座標回転を行ってもよい。なお、立体球の回転に関する変換公式は、一般の座標回転公式であるため、説明を省略する。
上記のように生成された、部分画像(高精細画像)IMG41及び全体画像IMG3は、例えば、下記のような形式で情報処理装置に送信される。
図8は、送信データの例を示す図である。例えば、全天球撮像装置は、部分画像(高精細画像)IMG41及び全体画像IMG3をまとめたデータ(以下「送信データDS1」という。)を情報処理装置に送信する。
具体的には、送信データDS1は、1枚の画像であり、上部に全体画像IMG3を配置し、かつ、下部に部分画像(高精細画像)IMG41を配置したデータである。また、図示する例では、それぞれの画像は、HD(high definition video、高精細ビデオ)等で用いられるアスペクトである「16:9」に合わせて配置される。ただし、アスペクトは、HDに限られず、他に設定された比率でもよい。また、画像の配置は、図示するような上下に限らず、左右等でもよい。また、部分画像が複数である場合には、例えば、上半分に全体画像、下半分に部分画像を個数分に分割して配置してもよい。このように、部分画像(高精細画像)IMG41及び全体画像IMG3を1つにまとめると、画像間の同期が取り易い。また、全天球撮像装置は、情報処理装置に、全体画像及び部分画像を別々に送信してもよい。
そして、表示範囲D2に、部分画像が示す範囲が含まれない場合には、部分画像(低精細画像)IMG42が生成されるため、図示するように、送信データDS1は、全体画像IMG3及び部分画像(低精細画像)IMG42の組み合わせとなる。この場合には、部分画像(低精細画像)IMG42は、部分画像(高精細画像)IMG41より、データの容量が小さいため、送信データDS1は、部分画像(高精細画像)IMG41の場合より、データの容量が小さくなる。そのため、画像処理システムは、全天球撮像装置及び情報処理装置の間で送信される送信データDS1を低いビットレートでも送信できる。このようにして、画像処理システムは、効率的に通信帯域を使用することができる。
全体処理において、上記のような送信データが送られてくると、情報処理装置が以下のような処理を行う。
図9は、情報処理装置による処理の例を示すフロー図である。
ステップS320では、情報処理装置は、部分画像パラメータD3に基づいて、部分立体球PSを生成する。例えば、全天球撮像装置が撮像する範囲は、立体球CSのように示せる。そして、部分立体球PSは、立体球CSのうち、部分画像が示す範囲を球面で示す。部分立体球PSを生成する詳細は、後述する。
ステップS330では、情報処理装置は、部分立体球PSに対して、透視射影方式である部分画像を重畳する。なお、部分画像は、上記のとおり、送信データで送られる部分画像が部分画像(高精細画像)IMG41であるか、又は、部分画像(低精細画像)IMG42であるかによって、用いられる画像が異なる。このようにすると、図示するように、重畳画像Sが生成される。
ステップS340では、情報処理装置は、マスク画像Mを生成する。
ステップS350では、情報処理装置は、立体球CSに対して、正距円筒射影方式である全体画像を貼り付ける。このようにして、情報処理装置は、全天球画像CEを生成する。
ステップS360では、情報処理装置は、重畳画像S、マスク画像M及び全天球画像CEを重畳する。このような処理であると、情報処理装置は、全天球画像CEのうち、部分画像が示す範囲を部分画像に置き換えた画像を生成できる。したがって、部分画像が部分画像(高精細画像)IMG41であれば、全天球画像CEが示す画像のうち、部分画像に対応する部分が高精細な画像となる。
ステップS370では、情報処理装置は、あらかじめ定められた仮想カメラの視線方向と画角に基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域をディスプレイで閲覧できるように射影変換を行う。
そして、情報処理装置は、所定領域画像Qを表示画像IMGVとして表示する。
<部分立体球の生成例>
図10は、部分立体球の生成例を示す図である。例えば、部分立体球は、図示するように、部分平面から生成される。まず、透視射影方式では、平面に射影するため、例えば、図10(a)のように、3次元空間上に平面で部分画像となる範囲が、部分画像パラメータで特定される。そして、ステップS320等では、情報処理装置は、特定された平面を全天球画像に合わせて球の一部である部分立体球とする。以下、平面から部分立体球への変換について説明する。
図10(a)に示すように、大きさ(例えば、画角等で定まる。)で配置された平面上の各点(X,Y,Z)を球面上への射影を考える。そして、球面への射影は、球の原点から各点(X,Y,Z)を通る直線と、球面との交点となる。なお、球面上の各点は、原点からの距離が球の半径と等しい点である。よって、球の半径を「1」とすると、図10(b)に示すように、球面上の点(X',Y',Z')は、下記(6)式のように計算できる。

(X',Y',Z')=(X,Y,Z)×1/√(X2+Y2+Z2) ・・・(6)

したがって、上記(6)式を用いると、情報処理装置は、部分画像パラメータ等で定まる範囲を球面上のどの座標とするかを計算できる。
<部分立体球を用いない例>
図11は、部分立体球を用いない例を示す図である。
以下、図11(a)に示すように、仮想カメラICが立体球CSの中心点に位置し、中心点を基準にする。さらに、被写体が「P1」に位置する(以下「被写体P1」という。)例であるとする。この場合には、被写体P1は、全天球画像CE上では像P2となる。そして、重畳画像S上では、被写体P1は、像P3となる。
図11(a)に示すように、像P2及び像P3は、仮想カメラICと、被写体P1とを結ぶ直線上に位置する。そのため、全天球画像CEに、重畳画像Sを重畳して表示しても、全天球画像CEと重畳画像Sの間にズレが生じない。
しかし、図11(b)に示すように、仮想カメラICが立体球CSの中心点から離れる場合がある。例えば、画角を小さくする場合等である。この場合には、図11(a)と同様に、仮想カメラICと、被写体P1とを結ぶ直線上に、像P2は、位置する。一方で、像P3は、やや内側に位置している。このため、仮想カメラICと、被写体P1とを結ぶ直線上における重畳画像S上の像を像P3'とすると、図11(b)のような場合には、全天球画像CEと、重畳画像Sとの間に、像P3と像P3'との間のズレ量「g」が生じる。これにより、全天球画像CEに対して重畳画像Sがズレた状態で表示される。情報処理装置は、このように重畳した表示を行ってもよい。
<部分立体球を用いる例>
図12は、部分立体球を用いる例を示す図である。以下、部分立体球を用いる以外の条件は、図11と同様とする例で説明する。このように、部分立体球を用いると、情報処理装置は、重畳画像Sを全天球画像CEに沿って重畳できる。これにより、情報処理装置は、図12(a)に示すように、仮想カメラICが立体球CSの中心点に位置する場合でも、ズレを少なくして重畳できる。
同様に、図12(b)に示すように、情報処理装置は、仮想カメラICが立体球CSの中心点から離れた場合であっても、図11(b)と比較して、ズレを少なくして、重畳画像Sを全天球画像CEに沿って重畳できる。
<部分画像を用いるか否かの比較例>
まず、部分画像を用いない場合には、情報処理装置による表示は、例えば、以下のようになる。
図13は、比較例を示す図である。
例えば、図13(a)に示すように、全天球画像CEに対して部分画像Pを重畳して表示しない場合を比較例として説明する。そして、図13(a)が表示されている状態において、例えば、波線で示す領域を拡大して表示するように、ユーザが操作を行うとする。このような操作が行われると、情報処理装置は、例えば、図13(b)のような画像を表示する。
図13(b)は、低精細の画像である。したがって、比較例では、ユーザは、低精細の画像を見ることになる。
図14は、部分画像を用いる例を示す図である。図13と比較すると、図14は、全天球画像CEに対して部分画像Pを重畳している点が異なる。そして、図13と同様に、波線で示す領域を拡大して表示するように、ユーザが操作を行うとする。このような操作が行われると、情報処理装置は、例えば、図14(b)のような高精細の画像を表示する。
図14(b)は、高精細の部分が多い画像である。このように、部分画像を用いると、情報処理装置は、高精細な画像をユーザに表示できる。例えば、波線の領域に文字が描かれた看板等がある場合には、高精細な部分画像を重畳して表示しないと、拡大させても文字がぼやけてしまい、何が書かれてあるのか分からない場合が多い。一方で、図示するように、高精細な部分画像を重畳させると、文字等が鮮明に見える。そのため、ユーザは、何が書かれているのかを把握することができる。
以上、説明したように本実施形態によれば、まず、全天球撮像装置1は、ステップS140等により、高精細の全天球画像から低精細の全体画像を作成する。
次に、ステップS150等により、全天球撮像装置は、表示範囲に、部分画像が示す範囲が含まれる場合には、同じ高精細の全天球画像から射影方式の異なる、高精細の部分画像を作成する。
そして、全天球撮像装置が、情報処理装置に対して、低精細の全体画像及び高精細の部分画像の各データを送信する。
次に、ステップS360等により、情報処理装置は、低精細の全体画像上に、高精細の部分画像を重畳する。
続いて、ステップS370等により、情報処理装置は、ユーザが指定する視線方向及び画角に応じて射影方式を変換する。
このように、画像処理システムでは、全天球撮像装置は、被写体等を撮像することによって得られた高精細な全天球画像のうち、注目する領域を部分画像として、高精細で情報処理装置に送信する。一方で、全天球撮像装置は、注目しない領域、すなわち、全天球画像の全体を把握するため等に用いられる画像を全体画像として、低精細で情報処理装置に送信する。さらに、部分画像は、射影方式を変換してから送信する。このようにすると、受信側となる情報処理装置は、受信するデータ量を削減できる。そのため、全体画像に部分画像を重畳した状態の全天球画像等を素早く表示させることができる等の効果を奏する。
なお、全天球撮像装置は、縮小した全体画像と部分画像を送信してもよい。全体画像と部分画像が異なる射影方式であっても、情報処理装置は、合成して表示可能である。そのため、射影方式に関する汎用性が高いという効果を奏する。
以上のような処理を行う画像処理システムにおいて、情報処理装置が表示する範囲に含まれない範囲を示す部分画像が発生する場合がある。このような部分画像は、表示されないため、低精細な画像であっても、支障がない場合が多い。そこで、このような場合には、部分画像を低精細な画像にして送信する。このような構成であると、部分画像を低精細にした分、部分画像のデータ量が少なくできる。ゆえに、送信データを送るのに、高精細な部分画像を送る場合より、低いビットレートであっても、データを送信することができる。
具体的には、画像処理システムは、第1画像の例である部分画像(高精細画像)IMG41を第1画像生成部によって生成する第1画像生成手順を行う。例えば、第1画像生成部は、射影方式変換部18等で実現する。
次に、判断部の例である低精細変換部20は、第1範囲の例である表示範囲D2に基づいて、表示範囲D2に、第2範囲の例である部分画像が示す範囲が含まれるか否かを判断する判断手順を行う。
そして、第2画像生成部の例である低精細変換部20は、表示範囲D2に、部分画像が示す範囲が含まれないと判断すると、部分画像(低精細画像)IMG42を生成する第2画像生成手順を行う。
また、第3画像生成部の例である低精細変更部17は、第3画像の例である全体画像IMG3を生成する第3画像生成手順を行う。
そして、表示範囲D2に部分画像が示す範囲が含まれない場合には、送信部の例である送受信部11は、全体画像IMG3及び部分画像(低精細画像)IMG42を送信する送信手順を行う。
次に、受信部の例である送受信部51は、送信された全体画像IMG3及び部分画像(低精細画像)IMG42を受信する受信手順を行う。
このようにして送信された全体画像IMG3及び部分画像(低精細画像)IMG42に基づいて、出力部の例である表示制御部58は、表示画像IMGVを表示する出力手順を行う。
以上のような構成であると、部分画像を全体画像に重畳して表示する画像処理システムでは、撮像装置及び情報処理装置の間で送受信される部分画像のデータ量等を少なくできる。このようにして、画像処理システムは、画像の配信において、効率的に通信帯域を使用することができる。
なお、部分画像の送信は、停止されてもよい。例えば、以前に部分画像を既に送ってあり部分画像の内容が変化していない、又は、部分画像が示す範囲が表示されない場合等に、部分画像の送信は、停止してもよい。なお、停止は、設定する一定期間等でもよい。つまり、内容が変化していない場合には、以前に送った部分画像を再度使用する等でも同じ画像を表示できる。又は、部分画像が示す範囲が表示されない場合には、他の範囲を表示するため、部分画像がなくとも、表示の一部が欠けるといった現象は起きない。このように、部分画像の送信を停止させると、より送信するデータ量を少なくできる。
また、第1範囲に、第2範囲が含まれる場合であって、かつ、表示範囲が所定範囲より狭い場合には、全天球撮像装置は、第2画像を生成するのが望ましい。
具体的には、いわゆるズーム率が低い場合等である。このような場合には、被写体等が小さく表示される場合が多い。このような場合には、画像が高精細であっても、効果が薄い場合が多い。ゆえに、部分画像が低精細であっても、ユーザが画像を見るのに支障が出ない場合が多い。したがって、このような場合には、全天球撮像装置は、全体画像IMG3及び部分画像(低精細画像)IMG42等を送信するのが望ましい。このようにすると、画像処理システムは、より送信するデータ量を少なくできる。
なお、どの程度のズーム率から、部分画像を低精細とするかの閾値は、例えば、あらかじめ設定される。
<第2実施形態>
第2実施形態は、第1実施形態と比較すると、複数の部分画像を用いる点が異なる。例えば、第2実施形態では、以下のように、部分画像となる範囲が複数入力される。
図15は、第2実施形態における複数の部分画像が示す範囲及び表示範囲の例を示す図である。例えば、図示するような広角画像が生成された場合において、表示範囲D2と示す範囲が情報処理装置で表示される範囲であるとする。
そして、例えば、図示するように、第1指定範囲R1、第2指定範囲R2及び第3指定範囲R3があらかじめ設定される。第1指定範囲R1、第2指定範囲R2及び第3指定範囲R3は、いずれも部分画像とする範囲を指定する。すなわち、図示する例は、第1指定範囲R1、第2指定範囲R2及び第3指定範囲R3を示す3つの部分画像を生成するように指定する例である。なお、部分画像の数は、複数であればよい。すなわち、部分画像は、4つ以上又は2つでもよい。
また、図示するような設定の場合には、まず、全天球撮像装置は、例えば、以下のように判断する。
全天球撮像装置は、表示範囲D2に、第1指定範囲R1が含まれないと判断する。したがって、全天球撮像装置は、第1指定範囲R1を示す部分画像を低精細に生成する。
全天球撮像装置は、表示範囲D2に、第2指定範囲R2が含まれると判断する。したがって、全天球撮像装置は、第2指定範囲R2を示す部分画像を高精細に生成する。
全天球撮像装置は、表示範囲D2に、第3指定範囲R3の一部が含まれると判断する。したがって、全天球撮像装置は、第3指定範囲R3を示す部分画像を高精細に生成する。
このように、全天球撮像装置は、低精細の部分画像の要否を画像ごとに判断し、画像を生成する。
この例では、画像処理システムは、第1指定範囲R1用の部分画像を低精細にした分、データ量を少なくできる。
このような処理の後、全天球撮像装置は、例えば、以下のような送信データを情報処理装置に送信する。
図16は、第2実施形態における送信データの例を示す図である。第2実施形態では、部分画像が複数生成される。したがって、送信データDS2は、図示するように、全体画像IMG3に加えて、図示するように、複数の部分画像を入れて情報処理装置に送信される。なお、第1実施形態と同様に、全体画像及び複数の部分画像は、送信データDS2のように1つのデータでなくともよい。すなわち、全体画像及び複数の部分画像は、別々に送られてもよい。
<操作画面の例>
画像処理システムでは、情報処理装置は、例えば、以下のような操作画面を表示するのが望ましい。
図17は、高精細に表示する範囲を追加及び削除する操作画面の例を示す図である。例えば、情報処理装置が、図示するような表示画像IMGVを表示した場合を例に説明する。
例えば、操作画面において、画面上をドラックする操作等によって、高精細に表示する範囲が追加できる。以下、図示するような範囲(以下「追加範囲R22」という。)を高精細に表示するように操作する例で説明する。
追加範囲R22を指定する操作を行うと、情報処理装置は、例えば、図示するように、「追加する」と表示するボタン(以下「追加ボタンBT1」という。)を表示する。そして、追加ボタンBT1を押すと、情報処理装置は、高精細に表示する範囲に追加範囲R22を追加する。したがって、情報処理装置は、追加範囲R22を示す部分画像を高精細な画像で送るように全天球撮像装置に通知する。このようにすると、ユーザは、追加範囲R22を鮮明な画像で見ることができる。
さらに、操作画面では、追加範囲R22のような高精細に表示する範囲を削除できる操作ができるのが望ましい。
例えば、削除は、図示するように、「削除する」と表示するボタン(以下「削除ボタンBT2」という。)等で行う操作である。具体的には、あらかじめ図示するような範囲(以下「設定範囲R21」という。)を高精細に表示するように設定されていたとする。そして、設定範囲R21をクリックする操作等を行うと、情報処理装置は、例えば、図示するように、削除ボタンBT2を表示する。
次に、削除ボタンBT2が押されると、情報処理装置は、設定範囲R21を示す部分画像を低精細な画像で送る、又は、部分画像の生成を停止するように全天球撮像装置に通知する。このようにすると、画像処理システムは、設定範囲R21を示す部分画像のデータ量を少なくすることができる。
<その他の実施形態>
なお、画像処理システムは、上記のような全体構成でなくともよい。例えば、画像処理システムにおいて、撮像装置及び情報処理装置は、複数の装置であってもよい。
また、本発明に係る実施形態では、画像処理システム等のコンピュータに、画像処理方法のうち、一部又は全部を実行させるためのプログラムによって実現されてもよい。
以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。
1 全天球撮像装置
2 スマートフォン
10 画像処理システム
11 送受信部
12 部分画像パラメータ作成部
13 撮像制御部
14a 撮像部
14b 撮像部
15 画像処理部
16 一時記憶部
17 低精細変更部
18 射影方式変換部
19 符号化部
20 低精細変換部
51 送受信部
52 受付部
53 復号化部
54 重畳領域作成部
55 画像作成部
56 画像重畳部
57 射影方式変換部
58 表示制御部
59 表示範囲指示部
101 撮像ユニット
102a レンズ
102b レンズ
103a 撮像素子
103b 撮像素子
104 画像処理ユニット
105 撮像制御ユニット
108 マイク
109 音処理ユニット
110 バス
115 操作部
117 通信部
117a アンテナ
118 電子コンパス
504 EEPROM
505 CMOSセンサ
506 加速度・方位センサ
507 メディア
509 GPS受信部
510 バスライン
511 遠距離通信回路
512 カメラ
514 マイク
515 スピーカ
519 近距離通信回路
519a アンテナ
521 タッチパネル
BT1 追加ボタン
BT2 削除ボタン
CE 全天球画像
CS 立体球
D1 指示データ
D2 表示範囲
D3 部分画像パラメータ
DS1 送信データ
DS2 送信データ
IC 仮想カメラ
IMG1 半球画像
IMG2 半球画像
IMG3 全体画像
IMG5 広角画像
IMG41 部分画像(高精細画像)
IMG42 部分画像(低精細画像)
IMGV 表示画像
M マスク画像
P 部分画像
P1 被写体
P2 像
P3 像
P3' 像
PS 部分立体球
Q 所定領域画像
R1 第1指定範囲
R2 第2指定範囲
R3 第3指定範囲
R21 設定範囲
R22 追加範囲
S 重畳画像
λ 緯度
φ 経度
特開2007−325109号公報

Claims (7)

  1. 広角画像を撮像する撮像装置と、前記撮像装置と接続する情報処理装置とを有する画像処理システムであって、
    前記撮像装置は、
    前記広角画像の一部を示す第1画像を生成する第1画像生成部と、
    前記情報処理装置が表示する第1範囲に、前記第1画像が示す第2範囲が含まれるか否かを判断する判断部と、
    前記第1範囲に、前記第2範囲が含まれない場合には、前記第1画像を低精細にした第2画像を生成する第2画像生成部と、
    前記広角画像を低精細にした第3画像を生成する第3画像生成部と、
    前記第2画像及び前記第3画像を前記情報処理装置に送信する送信部と
    を備え、
    前記情報処理装置は、
    前記第1範囲に、前記第2範囲が含まれない場合には、前記第2画像及び前記第3画像を前記撮像装置から受信する受信部と、
    前記第2画像及び前記第3画像に基づく表示を行う出力部と
    を備える
    画像処理システム。
  2. 前記第2画像の送信を停止させる
    請求項1に記載の画像処理システム。
  3. ズーム率が低い場合には、前記第2画像を生成する
    請求項1又は2に記載の画像処理システム。
  4. 前記第1画像が複数生成される
    請求項1乃至3のいずれか1項に記載の画像処理システム。
  5. 高精細に表示させる範囲を追加又は削除する操作を受け付ける
    請求項1乃至4のいずれか1項に記載の画像処理システム。
  6. 広角画像を撮像する撮像装置と、前記撮像装置と接続する情報処理装置とを有する画像処理システムが行う画像処理方法であって、
    前記撮像装置が、前記広角画像の一部を示す第1画像を生成する第1画像生成手順と、
    前記撮像装置が、前記情報処理装置が表示する第1範囲に、前記第1画像が示す第2範囲が含まれるか否かを判断する判断手順と、
    前記撮像装置が、前記第1範囲に、前記第2範囲が含まれない場合には、前記第1画像を低精細にした第2画像を生成する第2画像生成手順と、
    前記撮像装置が、前記広角画像を低精細にした第3画像を生成する第3画像生成手順と、
    前記撮像装置が、前記第2画像及び前記第3画像を前記情報処理装置に送信する送信手順と、
    前記情報処理装置が、前記第1範囲に、前記第2範囲が含まれない場合には、前記第2画像及び前記第3画像を前記撮像装置から受信する受信手順と、
    前記情報処理装置が、前記第2画像及び前記第3画像に基づく出力を行う出力手順と
    を含む
    画像処理方法。
  7. 請求項6に記載の画像処理方法をコンピュータに実行させるためのプログラム。
JP2019040840A 2019-03-06 2019-03-06 画像処理システム、撮像装置、情報処理装置、画像処理方法及びプログラム Active JP7326774B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019040840A JP7326774B2 (ja) 2019-03-06 2019-03-06 画像処理システム、撮像装置、情報処理装置、画像処理方法及びプログラム
US16/804,241 US11102448B2 (en) 2019-03-06 2020-02-28 Image capturing apparatus, image processing system, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019040840A JP7326774B2 (ja) 2019-03-06 2019-03-06 画像処理システム、撮像装置、情報処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020145590A true JP2020145590A (ja) 2020-09-10
JP7326774B2 JP7326774B2 (ja) 2023-08-16

Family

ID=72336789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019040840A Active JP7326774B2 (ja) 2019-03-06 2019-03-06 画像処理システム、撮像装置、情報処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US11102448B2 (ja)
JP (1) JP7326774B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3829159A1 (en) 2019-11-29 2021-06-02 Ricoh Company, Ltd. Image capturing device, image communication system, and method for display control, and carrier means
EP3869788A1 (en) 2020-02-19 2021-08-25 Ricoh Company, Ltd. Image capturing device, image communication system, method for display control, and carrier means

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153263A (ja) * 2001-11-19 2003-05-23 Hitachi Ltd 映像表示システムおよびその方法
JP2009188792A (ja) * 2008-02-07 2009-08-20 Sony Corp 画像送信装置、画像受信装置、画像送受信システム、画像送信プログラムおよび画像受信プログラム
JP2014183353A (ja) * 2013-03-18 2014-09-29 Sony Corp 映像処理装置、映像再生装置、映像処理方法、映像再生方法及び映像処理システム
WO2016140083A1 (ja) * 2015-03-05 2016-09-09 ソニー株式会社 画像処理装置および画像処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325109A (ja) 2006-06-02 2007-12-13 Canon Inc 配信サーバ、ネットワークカメラ、配信方法及びプログラム
US10915777B2 (en) 2017-09-11 2021-02-09 Ricoh Company, Ltd. Communication terminal, communication system, and image processing method
US10593014B2 (en) * 2018-03-26 2020-03-17 Ricoh Company, Ltd. Image processing apparatus, image processing system, image capturing system, image processing method
US10931836B2 (en) 2018-03-29 2021-02-23 Ricoh Company, Ltd. Communication system, image processing method, and recording medium
US11245707B2 (en) 2018-03-31 2022-02-08 Ricoh Company, Ltd. Communication terminal, communication system, communication control method, and recording medium
US11017544B2 (en) 2018-07-31 2021-05-25 Ricoh Company, Ltd. Communication terminal, communication system, communication control method, and recording medium
US11250540B2 (en) * 2018-12-28 2022-02-15 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153263A (ja) * 2001-11-19 2003-05-23 Hitachi Ltd 映像表示システムおよびその方法
JP2009188792A (ja) * 2008-02-07 2009-08-20 Sony Corp 画像送信装置、画像受信装置、画像送受信システム、画像送信プログラムおよび画像受信プログラム
JP2014183353A (ja) * 2013-03-18 2014-09-29 Sony Corp 映像処理装置、映像再生装置、映像処理方法、映像再生方法及び映像処理システム
WO2016140083A1 (ja) * 2015-03-05 2016-09-09 ソニー株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US11102448B2 (en) 2021-08-24
US20200288083A1 (en) 2020-09-10
JP7326774B2 (ja) 2023-08-16

Similar Documents

Publication Publication Date Title
JP6805861B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
US11558431B2 (en) Communication terminal, communication system, communication method, and display method
US10979751B2 (en) Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication
CN111726520B (zh) 摄影装置、摄影系统、图像处理方法
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
US11323621B2 (en) Image communication system, image capturing device, communication terminal, and mode switching method
JP7192592B2 (ja) 撮像装置、画像通信システム、画像処理方法、プログラム
US20220070412A1 (en) Communication terminal, image communication system, method of displaying image, and recording medium
US11818492B2 (en) Communication management apparatus, image communication system, communication management method, and recording medium
US11250540B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP7326774B2 (ja) 画像処理システム、撮像装置、情報処理装置、画像処理方法及びプログラム
JP2018110384A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
JP6304300B2 (ja) 送信装置、通信方法、プログラムおよび受信装置
JP2018109946A (ja) 表示装置、プログラム、表示方法
JP7415544B2 (ja) 撮影システム及び撮影方法
JP7424031B2 (ja) 通信端末、撮影システム、画像処理方法及びプログラム
US11533430B2 (en) Image capturing device with display control, image communication system, and method for display control, and recording medium
JP2018061243A (ja) 通信端末、表示方法、及びプログラム
JP7484237B2 (ja) 撮影装置、撮影システム、画像処理方法、及びプログラム
JP7400407B2 (ja) 通信端末、撮影システム、画像処理方法及びプログラム
JP6233451B2 (ja) 画像共有システム、通信方法及びプログラム
JP2018207466A (ja) 通信管理システム、通信システム、通信管理方法、及びプログラム
JP2019180078A (ja) 通信端末、画像通信システム、表示方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R151 Written notification of patent or utility model registration

Ref document number: 7326774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151