JP2021132370A - プログラム、画像通信システム、表示方法及び撮影装置 - Google Patents

プログラム、画像通信システム、表示方法及び撮影装置 Download PDF

Info

Publication number
JP2021132370A
JP2021132370A JP2021008249A JP2021008249A JP2021132370A JP 2021132370 A JP2021132370 A JP 2021132370A JP 2021008249 A JP2021008249 A JP 2021008249A JP 2021008249 A JP2021008249 A JP 2021008249A JP 2021132370 A JP2021132370 A JP 2021132370A
Authority
JP
Japan
Prior art keywords
image
display
predetermined area
angle
smartphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021008249A
Other languages
English (en)
Inventor
喜永 加藤
Yoshinaga Kato
喜永 加藤
直規 角田
Naoki Tsunoda
直規 角田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP21156186.5A priority Critical patent/EP3869788A1/en
Priority to CN202110189868.0A priority patent/CN113286039A/zh
Priority to US17/178,265 priority patent/US11700455B2/en
Publication of JP2021132370A publication Critical patent/JP2021132370A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】広角画像と狭角画像の撮影開始のタイミングを合わせる目的で、広角撮影装置及び狭角撮影装置のうち一方の撮影装置によって撮影開始の操作が行なわれたことに基づき、他方の撮影装置に対して撮影開始を実行させるシステムが公開されている。しかし、従来の方法では、狭角画像の閲覧者は、狭角画像に映し出された被写体等を見ただけでは、撮影された場所や状況を把握しづらいという課題が生じていた。【解決手段】表示制御部37は、最初にスマートフォン3で撮影することで得られた狭角画像(平面画像P)を所定時間(t0〜t1)表示させ、続けて全天球撮影装置1で連携撮影することで得られた広角画像(正距円筒射影画像EC1)内において所定領域Tを移動させながら所定領域画像Q11(Q21)を連続的に表示する(t2、t3)。【選択図】図19

Description

本開示内容は、プログラム、画像通信システム、表示方法及び撮影装置に関する。
近年、全天球(360°)撮影用カメラ等の広角撮影装置で撮影されることで得られた正距円筒射影画像としての広角画像を、スマートフォン等の狭角画像を得る狭角撮影装置で表示することで、撮影及び表示の範囲が広がっている。また、広角画像と狭角画像の撮影開始のタイミングを合わせる目的で、広角撮影装置及び狭角撮影装置のうち一方の撮影装置によって撮影開始の操作が行なわれたことに基づき、他方の撮影装置に対して撮影開始を実行させるシステムが公開されている(特許文献1参照)。
しかしながら、従来の方法では、狭角画像の閲覧者は、狭角画像に映し出された被写体等を見ただけでは、撮影された場所や状況を把握しづらいという課題が生じていた。
請求項1に係る発明は、撮影することによって得られた画像である第1の画像を表示するためのプログラムであって、コンピュータに、撮影することで前記第1の画像よりも広角な画像である第2の画像を得た広角撮影装置が送信した前記第2の画像のデータを取得する取得手段と、前記第1の画像の表示、及び前記第2の画像において前記第1の画像との類似度が所定の閾値以上である所定領域画像の表示を制御する表示制御手段と、を実現させることを特徴とするプログラムである。
以上説明したように本発明によれば、狭角画像の閲覧者は、撮影された場所や状況を把握し易いという効果を奏する。
(a)は全天球撮影装置の左側面図であり、(b)は全天球撮影装置の背面図であり、(c)は全天球撮影装置の平面図であり、(d)は全天球撮影装置の底面図である。 全天球撮影装置の使用イメージ図である。 (a)は全天球撮影装置で撮影された半球画像(前)、(b)は全天球撮影装置で撮影された半球画像(後)、(c)は正距円筒図法により表された画像を示した図である。 (a)は正距円筒射影画像で球を被う状態を示した概念図、(b)は全天球画像を示した図である。 全天球画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。 (a)は図5の立体斜視図、(b)は狭角撮影装置のディスプレイに所定領域の画像が表示されている状態を示す図である。 所定領域情報と所定領域Tの画像との関係を示した図である。 第1の実施形態に係る画像通信システムの概略図である。 全天球撮影装置のハードウェア構成図である。 スマートフォンのハードウェア構成図である。 第1の実施形態に係る画像通信システムの機能ブロック図である。 第1の実施形態に係る連携撮影処理を示したシーケンス図である。 第1の実施形態に係る所定領域画像の表示処理を示したフローチャートである。 正距円筒射影画像と所定領域画像の関係を示した図である。 (a)は平面画像と正距円筒射影画像における所定領域画像の表示時間及び表示範囲を示した図、(b)はスマートフォンに平面画像が表示された図、(c)はスマートフォンに正距円筒射影画像における所定領域画像を示した図である。 第2の実施形態に係る画像通信システムの機能ブロック図である。 第2の実施形態に係る所定領域画像の表示処理を示したフローチャートである。 第2の実施形態に係る正距円筒射影画像と所定領域画像の関係を示した図である。 (a)は第2の実施形態に係る平面画像と正距円筒射影画像における所定領域画像の表示時間及び表示範囲を示した図、(b)は第2の実施形態に係るスマートフォンに平面画像が表示された図、(c),(d)は第2の実施形態に係るスマートフォンに異なる時刻における正距円筒射影画像の所定領域画像を示した図である。 第3の実施形態に係る所定領域画像の表示処理を示したフローチャートである。 第3の実施形態に係る所定領域画像の表示処理を示したフローチャートである。 (a)は第3の実施形態に係る平面画像と正距円筒射影画像における所定領域画像の表示時間及び表示範囲を示した図、(b)は第3の実施形態に係るスマートフォンに平面画像が表示された図、(c),(d),(e),(f)は第3の実施形態に係るスマートフォンに異なる時刻における正距円筒射影画像の所定領域画像を示した図である。 (a),(b)は第4の実施形態に係る所定領域画像の表示処理を示したフローチャートである。 (a)は第4の実施形態に係る平面画像と正距円筒射影画像における所定領域画像の表示時間及び表示範囲を示した図、(b)は第4の実施形態に係るスマートフォンに平面画像が表示された図、(c),(d),(e)は第4の実施形態に係るスマートフォンに異なる時刻における正距円筒射影画像における所定領域画像を示した図である。 第4の実施形態に係る所定領域画像を選択する画面の表示例を示した図である。 第1乃至第4の実施形態に係る連携撮影処理の変形例を示したシーケンス図である。 第5の実施形態に係る画像通信システムの概略図である。 第5の実施形態に係る画像管理サーバのハードウェア構成図である。 第5の実施形態に係る画像通信システムの機能ブロック図である。 第5の実施形態に係るファイルデータの通信処理を示したシーケンス図である。 狭角画像データに対する照合処理を示したフローチャートである。
以下、図面を用いて、本発明の実施形態について説明する。
〔実施形態の概要〕
以下、本実施形態の概要について説明する。
まずは、図1乃至図7を用いて、全天球画像の生成方法について説明する。
まず、図1を用いて、全天球撮影装置1の外観を説明する。全天球撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は全天球撮影装置の左側面図であり、図1(b)は全天球撮影装置の背面図であり、図1(c)は全天球撮影装置の平面図であり、図1(d)は全天球撮影装置の底面図である。
図1(a),図1(b),図1(c),図(d)に示されているように、全天球撮影装置1の上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている。全天球撮影装置1の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮影することで、半球画像(画角180°以上)を得ることができる。全天球撮影装置1の正面側と反対側の面には、シャッターボタン115aが設けられている。また、全天球撮影装置1の側面には、電源ボタン115b、 Wi−Fi(Wireless Fidelity)ボタン115c、及び撮影モード切替ボタン115dが設けられている。電源ボタン115b、及びWi−Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮影モード切替ボタン115dは、押下される度に、静止画の撮影モードと動画の撮影モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi−Fiボタン115c、及び撮影モード切替ボタン115dは、操作部115の一部であり、操作部115は、これらのボタンに限られない。
また、全天球撮影装置1の底部150の中央には、カメラ用三脚に全天球撮影装置1を取り付けるための三脚ネジ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(High-Definition Multimedia Interface)端子153が設けられている。なお、HDMIは登録商標である。
次に、図2を用いて、全天球撮影装置1の使用状況を説明する。なお、図2は、全天球撮影装置の使用イメージ図である。全天球撮影装置1は、図2に示されているように、例えば、利用者が手に持って利用者の周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれ利用者の周りの被写体が撮像されることで、二つの半球画像を得ることができる。
次に、図3及び図4を用いて、全天球撮影装置1で撮影された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は全天球撮影装置1で撮影された半球画像(前側)、図3(b)は全天球撮影装置で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、全天球撮影装置1によって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。
そして、OpenGL−ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL−ESは、2D(2-Dimensions)及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。また、正距円筒射影画像を立体球CSに貼り付ける例を示したが、立体球CSだけでなく、立方体や角柱であってもよい。
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると、歪みがあり違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。
なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見る閲覧者の視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像CEが、三次元の立体球CSに貼り付けられて表わされている。このように生成された全天球画像CEが、立体球CSに貼り付けられた場合には、図5に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮影方向と画角を示す所定領域情報によって特定される。
そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。以下では、仮想カメラICの撮影方向(θ,φ)と画角(α)を用いて説明する。なお、撮影方向は視線方向ともいう。
図7を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図7は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図7に示されているように、「θ」は仮想カメラICの撮影方向におけるパン角、「φ」は仮想カメラICの撮影方向におけるチルト角、「α」は画角(Angle)を示す。更に、「W」は所定領域Tの幅、「H」は所定領域Hの高さを示す。即ち、撮影方向(θ,φ)で示される仮想カメラICの注視点が、仮想カメラICの撮影領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図7では、一般的に以下の(式1)で示される三角関数が成り立つ。
Figure 2021132370
●第1の実施形態
続いて、図8乃至図16を用いて、本発明の第1の実施形態について説明する。
〔画像通信システムの構成の概略〕
まずは、図8を用いて、第1の実施形態に係る画像通信システムの構成の概略について説明する。図8は、第1の実施形態に係る画像通信システムの概略図である。
図8に示されているように、本実施形態の画像通信システムは、全天球撮影装置1、及びスマートフォン3によって構築されている。全天球撮影装置1とスマートフォン3は、Wi−Fi、Bluetooth(登録商標)、NFC(Near Field Communication)等の近距離無線通信技術を利用して無線通信することができる。なお、全天球撮影装置1とスマートフォン3は、無線通信を行わずに、USB(Universal Serial Bus)ケーブル等を用いて、有線通信を行ってもよい。
これらのうち、全天球撮影装置1は、上述のように、被写体や風景等を撮影して正距円筒射影画像の元になる二つの半球画像を得るための特殊なデジタルカメラである。なお、本実施形態において全天球撮影装置1は、広角撮影装置の一例である。広角撮影装置には、一般の広角な平面画像(2Dパノラマ画像等)を得るための撮影装置(一眼レフカメラ、コンパクトデジタルカメラ、スマートフォン、タブレットPC等)も含まれる。但し、本実施形態では、主に正距円筒射影画像を得るためのデジタルカメラとしての全天球撮影装置1について説明する。なお、広角撮影装置は、他の撮影装置の一例でもある。
また、正距円筒射影画像は、広角画像の一例であり、第2の画像の一例でもある。
広角画像には、正距円筒射影画像、上記一般の広角な平面画像も含まれる。ここで、広角画像は、一般には広角レンズを用いて撮影された画像であり、人間の目で感じるよりも広い範囲を撮影することができるレンズで撮影されたものである。また、一般的に35mmフィルム換算で35mm以下の焦点距離のレンズで、撮影された画像を意味するが、本実施形態では、広角画像は、スマートフォン3で撮影されることで得られた画像(狭角画像)よりも広角に撮影されていればよい。
一方、スマートフォン3は、利用者Aが利用するモバイル向けOS(Operating System)を備えた携帯電話である。スマートフォン3は、後述のCMOS313等の撮像素子を備えており、被写体等を撮像することができる。スマートフォン3の撮影範囲は、全天球撮影装置1よりも狭角である。その意味で、全天球撮影装置1が広角撮影装置の一例であるのに対して、スマートフォン3は狭角撮影装置(又は撮影装置)の一例である。このスマートフォン3により撮影された撮影画像は、狭角画像の一例であり、第1の画像の一例でもある。狭角撮影装置には、スマートフォン3の他に、PC、スマートウォッチ、表示アプリケーションがインストールされているディスプレイ、ゲーム機、カーナビゲーション装置、ウェアラブル端末などが含まれる。
また、スマートフォン3は、全天球撮影装置1が被写体等を撮影した後に作成した正距円筒射影画像ECのデータを無線通信等で受信して、この正距円筒射影画像ECの所定領域Tである所定領域画像Qを表示する。その意味で、スマートフォン3は、通信端末の一例であり、表示装置の一例でもある。
〔実施形態のハードウェア構成〕
次に、図9及び図10を用いて、本実施形態の全天球撮影装置1及びスマートフォン3のハードウェア構成を詳細に説明する。
<全天球撮影装置のハードウェア構成>
まず、図9を用いて、全天球撮影装置1のハードウェア構成を説明する。図9は、全天球撮影装置1のハードウェア構成図である。以下では、全天球撮影装置1は、二つの撮像素子を使用した全天球(全方位)全天球撮影装置とするが、撮像素子は二つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラ等に後付けの全方位の撮像ユニットを取り付けることで、実質的に全天球撮影装置1と同じ機能を有するようにしてもよい。
図9に示されているように、全天球撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120、及び端子121によって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている二つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているような正距円筒射影画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。全天球撮影装置1によっては、ディスプレイ(例えば、スマートフォン3のディスプレイ318)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球撮影装置1にはディスプレイが設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、全天球撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。
操作部115は、シャッターボタン115aなどの操作ボタンの総称である。利用者は操作部115を操作することで、種々の撮影モードや撮影条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン3等の外部端末(装置)に送信されたりする。
通信部117は、全天球撮影装置1に設けられたアンテナ117aを介して、Wi−Fi、NFC、Bluetooth等の近距離無線通信技術によって、スマートフォン3等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン3等の外部端末(装置)に送信することができる。
電子コンパス118は、地球の磁気から全天球撮影装置1の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。
ジャイロセンサ119は、全天球カメラ20の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。
加速度センサ120は、3軸方向の加速度を検出するセンサである。全天球撮影装置1は、加速度センサ120が検出した加速度に基づいて、自装置(全天球撮影装置1)の姿勢(重力方向に対する角度)を算出する。全天球撮影装置1に、ジャイロセンサ119と加速度センサ120の両方が設けられることによって、画像の傾きを補正する精度が向上する。
端子121は、Micro−USB用の凹状の端子である。端子121は、全天球撮影装置1が他の装置と有線通信する場合に利用される。
<スマートフォンのハードウェア構成>
次に、図10を用いて、スマートフォンのハードウェア構成を詳細に説明する。図10は、スマートフォンのハードウェア構成図である。
図10に示されているように、スマートフォン3は、CPU301、ROM302、RAM303、EEPROM304、CMOSセンサ305、撮像素子I/F306、加速度・方位センサ307、メディアI/F309、GPS受信部311を備えている。
これらのうち、CPU301は、スマートフォン3全体の動作を制御する。ROM302は、CPU301やIPL等のCPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。EEPROM304は、CPU301の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOS(Complementary Metal Oxide Semiconductor)センサ305は、CPU301の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCD(Charge Coupled Device)センサ等の撮像手段であってもよい。撮像素子I/F306は、CMOSセンサ305の駆動を制御する回路である。加速度・方位センサ307は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F309は、フラッシュメモリ等の記録メディア308に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部311は、GPS衛星からGPS信号を受信する。
また、スマートフォン3は、遠距離通信回路312、CMOSセンサ313、撮像素子I/F314、マイク315、スピーカ316、音入出力I/F317、ディスプレイ318、外部機器接続I/F(Interface)319、近距離通信回路320、近距離通信回路320のアンテナ320a、及びタッチパネル321を備えている。
これらのうち、遠距離通信回路312は、通信ネットワーク100を介して、他の機器と通信する回路である。CMOSセンサ313は、CPU301の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F314は、CMOSセンサ313の駆動を制御する回路である。マイク315は、音を電気信号に変える内蔵型の回路である。スピーカ316は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F317は、CPU301の制御に従ってマイク315及びスピーカ316との間で音信号の入出力を処理する回路である。ディスプレイ318は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。外部機器接続I/F319は、各種の外部機器を接続するためのインターフェースである。近距離通信回路320は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル321は、利用者がディスプレイ318を押下することで、スマートフォン3を操作する入力手段の一種である。
また、スマートフォン3は、バスライン310を備えている。バスライン310は、図10に示されているCPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、上記各プログラムは、インストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して、若しくは電気通信回線を通じてインストール可能な状態で流通させるようにしてもよい。記録媒体の例として、CD−R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、Blu-ray Disc、SDカード、USBメモリ等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内又は国外へ提供されることができる。例えば、スマートフォン3は、本発明に係るプログラムが実行されることで本発明に係る表示方法を実現する。
〔実施形態の機能構成〕
次に、図9乃至図11を用いて、本実施形態の機能構成について説明する。図11は、第1の実施形態に係る画像通信システムの機能ブロック図である。
<全天球撮影装置の機能構成>
図11に示されているように、全天球撮影装置1は、受付部12、撮像部13、集音部14、判断部15、画像・音処理部16、通信部18、及び記憶・読出処理部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、全天球撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
(全天球撮影装置1の各機能構成)
次に、図9及び図11を用いて、全天球撮影装置1の各機能構成について更に詳細に説明する。
全天球撮影装置1の受付部12は、主に、図9に示されている操作部115に対するCPU111の処理によって実現され、利用者からの操作入力を受け付ける。
撮像部13は、主に、図9に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105に対するCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。この撮影画像データは、図3(a)、(b)に示されている二つの半球画像データである。
集音部14は、主に、図9に示されている音処理ユニット109に対するCPU111の処理によって実現され、全天球撮影装置1の周囲の音を収音する。
判断部15は、CPU111の処理によって実現され、各種判断を行う。
画像・音処理部16は、画像処理ユニット104に対するCPU111の処理によって実現され、図3(a)、(b)に示されているような二つの半球画像から、図3(c)に示されているような正距円筒射影画像ECを作成する。また、画像・音処理部16は、音処理ユニット109に対するCPU111の処理によって実現され、集音により得られた音信号から音データを作成する。
通信部18は、主に、通信部117に対するCPU111の処理によって実現され、近距離無線通信によって、後述のスマートフォン3の通信部38とデータ通信を行う。なお、有線通信の場合には、通信部18は、端子121に対するCPU111の処理によって実現され、スマートフォン3からの電源供給を受けると共に、データ通信を行う。
記憶・読出処理部19は、主に、図9に示されているCPU111の処理によって実現され、記憶部1000に各種データ(又は情報)を記憶したり、記憶部1000から各種データ(又は情報)を読み出したりする。
<スマートフォンの機能構成>
次に、図10及び図11を用いて、スマートフォン3の機能構成について詳細に説明する。図11に示されているように、スマートフォン3は、送受信部31、受付部32、撮像部33、集音部34、判断部35、画像・音処理部36、表示制御部37、通信部38及び記憶・読出処理部39を有している。これら各部は、図10に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開されたスマートフォン3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
また、スマートフォン3は、図10に示されているRAM303及びEEPROM304によって構築される記憶部3000を有している。
(スマートフォンの各機能構成)
スマートフォン3の送受信部31は、主に、遠距離通信回路312に対するCPU301の処理によって実現され、インターネット等の通信ネットワークを介して、他の装置(例えば、後述の画像管理サーバ5)との間で各種データ(又は情報)の送受信を行う。
受付部32は、主に、タッチパネル321に対するCPU301の処理によって実現され、利用者から各種の選択又は入力を受け付ける。
撮像部33は、主に、撮像素子I/F306を介してCMOS305又は撮像素子I/F314を介してCMOS313に対するCPU301の処理によって実現され、被写体等を撮像し、撮影画像データを得る。
集音部34は、主に、音入出力I/F317を介してマイク315に対するCPU301の処理によって実現され、スマートフォン3の周囲の音を収音する。
判断部35は、主に、CPU301の処理によって実現され、各種判断を行なう。判断内容は後述する。
画像・音処理部36は、主に、CPU301の処理によって実現され、撮像素子I/F306を介してCMOSセンサ305又は撮像素子I/F314を介してCMOSセンサ313から取得した画像データに対する画像処理を行う。また、画像・音処理部36は、全天球撮影装置1から送信された正距円筒射影画像ECに対する画像処理を行う。また、画像・音処理部36は、主に、CPU301の処理によって実現され、マイク315による集音により得られた音信号から音データを作成する。更に、画像・音処理部36は、全天球撮影装置1から送信された音データを音信号に変換して音入出力I/F317を介してスピーカ316から音を出力させる。
表示制御部37は、主に、CPU301の処理によって実現され、ディスプレイ318に、各種画像を表示させる。
通信部38は、主に、近距離通信回路320に対するCPU301の処理によって実現され、全天球撮影装置1の通信部18とデータ通信を行う。なお、有線通信の場合には、通信部38は、外部機器接続I/F319に対するCPU301の処理によって、全天球撮影装置1に対して通信ケーブルを介することで、電源供給を行ったり画像データ等の通信を行ったりする。
記憶・読出処理部39は、主に、CPU301の処理によって実現され、記憶部3000に、各種データ(又は情報)を記憶したり、記憶部3000から各種データ(又は情報)を読み出したりする。
〔実施形態の処理又は動作〕
<連携撮影処理>
まずは、図12を用いて、スマートフォン3と全天球撮影装置1が連携撮影する処理について説明する。図12は、第1の実施形態に係る連携撮影処理を示したシーケンス図である。なお、図12に示す処理に先立って、スマートフォン3と全天球撮影装置1との通信接続は、Wi−Fi及びBluetoothにより確立しているものとする。
まず、スマートフォン3の受付部32は、利用者Aから撮影の開始を受け付ける(ステップS1)。これにより、撮像部33は被写体等を撮影し、画像・音処理部36が狭角画像データを作成し、記憶・読出処理部39が狭角画像データをRAM303に一時的に記憶する(ステップS2)。なお、ステップS2で作成された狭角画像データは、記憶・読出処理部39によって、図10に示されているRAM303及びEEPROM304から構築される記憶部3000に記憶されてもよい。なお、この場合、集音部34が音を集音して音データを作成することで、狭角画像データに関連付けてもよい。
次に、スマートフォン3の撮像部33が所定時間待機する(ステップS3)。例えば、所定時間は3秒間である。また、ステップS2の撮影の処理において、利用者A自身が被写体となっていた場合、この待機時間によって、利用者Aは、全天球撮影装置1を持ち直すか又はスマートフォン3から全天球撮影装置1に持ち替えるための準備時間を設けることができる。例えば、スマートフォン3と全天球撮影装置1とが比較的離れている場合、利用者Aがスマートフォン3で特定の被写体を撮影した後、利用者Aは3秒間で全天球撮影装置1に対して背中を向けることで、全天球撮影装置1で利用者A自身の顔を撮影されないようにすることができる。
次に、スマートフォン3の通信部38が、全天球撮影装置1に対して、撮影開始の要求を示す撮影要求情報を、Bluetoothを利用して送信する(ステップS4)。これにより、全天球撮影装置1の通信部18は、撮影要求情報を受信する。そして、全天球撮影装置1では、撮像部13が風景等を撮影することで二つの半球画像データを得て、画像・音処理部16が二つの半球画像データから正距円筒射影画像データとしての広角画像データを作成し、記憶・読出処理部19が作成した広角画像データを記憶部1000に記憶する(ステップS5)。
次に、全天球撮影装置1の通信部18は、スマートフォン3に対して、ステップS5で得られた広角画像データを、Wi−Fiを利用して送信する(ステップS6)。これにより、スマートフォン3の通信部38は、広角画像データを受信する。なお、本実施形態の画像通信システムにおいて、全天球撮影装置1の通信部18から二つの半球画像データをスマートフォン3に対して送信し、スマートフォン3側で二つの半球画像データを合成して正距円筒射影画像データとしての広角画像データを作成するよう構成してもよい。上述したステップS4の送受信に利用するBluetoothは第1の通信方式の一例であり、ステップS6の送受信に利用するWi−Fiは、第2の通信方式の一例である。
上記ステップS1〜S6の処理により、スマートフォン3では、自端末では撮影により得ることができない広角画像データを取得することができる。また、スマートフォン3と全天球撮影装置1の間で撮影の連携処理を行うことで、撮影タイミングを同期させることができる。
次に、スマートフォン3の画像・音処理部36が、ステップS2で得られた狭角画像データとステップS5で得られた広角画像データとを一つの電子ファイルに格納して、記憶・読出処理部39が、この一つの電子ファイルのデータを記憶部3000に記憶する(ステップS7)。なお、狭角画像データ及び広角画像データは、スマートフォン3以外に設けられた他の記憶部に記憶されてもよい。他の記憶部としては、例えば、クラウドサーバ等の外部サーバなどが考えられる。こうすることで、狭角画像データ及び広角画像データの共有化が可能となる。そして、スマートフォン3は、ディスプレイ318に対して、狭角画像及び広角画像の表示の処理を行う(ステップS8)。
<表示の処理>
ここで、図13及び図15を用いて、ステップS8の表示の処理について詳細に説明する。図13は、第1の実施形態に係る所定領域画像の表示処理を示したフローチャートである。図14は、正距円筒射影画像と所定領域画像の関係を示した図である。図15(a)は、平面画像と正距円筒射影画像における所定領域画像の表示時間及び表示範囲示した図、図15(b)はスマートフォンに平面画像が表示された図、図15(c)はスマートフォンに正距円筒射影画像における所定領域画像を示した図である。
まず、スマートフォン3の記憶・読出処理部39は、上記ステップS7で記憶部3000に記憶しておいた電子ファイルのデータを読み出す(ステップS31)。ここで、図14を用いて、電子ファイルに格納されている正距円筒射影画像と、この正距円筒射影画像の所定領域を示す所定領域画像の関係を説明する。図14は、正距円筒射影画像と所定領域画像の関係を示した図である。図14に示されているように、広角画像の一例としての正距円筒射影画像EC1は、始端BE1から終端TE1までが、仮想カメラICの撮影方向におけるパン角θで表され(図7参照)、全範囲として0°≦θ<360°で表される。そして、所定領域画像Q11は、正距円筒射影画像EC1におけるディスプレイ318への表示範囲DRとしての最初の所定領域である。このように、狭角画像としての正距円筒射影画像EC1におけるディスプレイ318への表示範囲DRとして表示される所定領域画像Qは、パン角θで表すことができる。
次に、図13に戻り、記憶・読出処理部39が、記憶部3000に記憶されている表示設定情報を読み出す(ステップS32)。この表示設定情報には、狭角画像の表示時間、広角画像におけるディスプレイ318への表示可能範囲、及び広角画像において表示範囲DRが移動することで最後まで全ての異なる所定領域画像の全ての表示が完了するまでの表示時間が含まれている。この表示設定情報は、予め利用者A等によってスマートフォン3に設定されている。この場合、狭角画像の表示後に広角画像における所定領域画像を最後まで必ず表示するために、0秒よりも長い時間が入力されたときのみ、スマートフォン3が表示時間を受け付ける。例えば、狭角画像の表示時間が1.0秒、広角画像の表示可能範囲が360度、広角画像において表示範囲DRが移動することで最後まで全ての異なる所定領域画像の表示が完了するまでの表示時間が1.8秒として、表示設定情報が設定される。
次に、図15(b)に示されているように、表示制御部37が、ディスプレイ318上にステップS31で読み出された電子ファイル内の狭角画像データに係る平面画像P1(狭角画像)の全体を所定時間表示する(ステップS33)。所定時間は、上記狭角画像の表示時間(例えば、1.0秒間)である。この場合、図15(a)に示されているように、平面画像P1としての狭角画像は、t0からt1まで(例えば、1.0秒間)表示される。
次に、記憶・読出処理部39が記憶部3000に記憶されている所定領域T(図6(a)参照)を示す所定領域情報を読み出す(ステップS34)。この所定領域情報は、所定領域Tの中心点CP及び画角αを示している(図7参照)。所定領域T及び画角αは、予め利用者A等によってスマートフォン3に設定されている。
次に、表示制御部37が、任意の所定領域Tにおける所定領域画像の表示継続時間を算出する(ステップS35)。例えば、表示制御部37は、ステップS32で読み出された表示設定情報に基づき、1.8秒/360° = 0.005秒(5ミリ秒)として表示継続時間を算出する。これにより、表示範囲DRは、0.005秒間隔でθを1°ごとに移動して順次異なる所定領域画像Qが表示されることになる。
そして、表示制御部37は、図15(c)に示されているように、平面画像P1としての狭角画像と同じアスペクト比によって、ディスプレイ318上に最初の表示範囲DRにおける所定領域画像Q11を表示する(ステップS36)。この場合、図15(a)に示されているように、表示範囲DRにおける移動方向の後端r11が、正距円筒射影画像EC1としての広角画像の始端BE1に位置している。なお、本実施形態において平面画像P1に含まれる人物、人物の顔を含む頭部、動物、建造物等の物体は、被写体の一例である。
次に、表示制御部37は、広角画像内で、上記算出した表示継続時間(例えば、0.005秒)後に、所定角度(例えば、θ=1°)、表示範囲DRを移動してディスプレイ318上に表示範囲DR内の所定領域画像を表示する(ステップS37)。移動方向は、図15(a)において矢印方向(右方向)である。ここでは、矢印方向は、全天球画像における赤道と並行する(平行な)方向である。
次に、判断部35は、表示範囲DRにおける移動方向の先端a11が正距円筒射影画像としての広角画像の終端TE1に到達したかを判断する(ステップS38)。そして、到達していない場合には(ステップS38;NO)、ステップS37の処理に戻り、再び、表示制御部37は、広角画像内で、上記算出した表示継続時間後に、所定角度、表示範囲DRを移動してディスプレイ318上に移動後の表示範囲DR内の所定領域画像を表示する。このステップS37,S38の処理を繰り返すことで、図15(a)において、表示範囲DRが矢印方向に移動し、最終的に表示範囲DRの先端a11が、正距円筒射影画像EC11としての広角画像の終端TE1に到達する。
そして、表示範囲DRの先端a11が正距円筒射影画像EC11としての広角画像の終端TE1に到達した場合には(ステップS38;YES)、ステップS8の表示の処理が終了すると共に、図12に示された連携撮影処理が全て終了する。このように、表示制御部37は、広角画像の全域に渡って表示範囲DRを移動させることで異なる複数の所定領域画像を表示する。なお、表示制御部37は、広角画像の一部の領域に渡って表示範囲DRを移動させてもよい。
〔本実施形態の主な効果〕
以上説明したように本実施形態によれば、表示制御部37は、図15に示されているように、最初にスマートフォン3で撮影することで得られた狭角画像を所定時間表示させ、続けて全天球撮影装置1で連携撮影することで得られた広角画像内において表示範囲DRを移動させながら異なる所定領域画像Q11を順に表示する。これにより、狭角画像の閲覧者は、狭角画像に映し出された被写体等を見ただけでは、どのような場所のどのような状況で撮影された画像であるかが分からなくても、次々に表示された異なる所定領域画像Q11を見ることで、場所や状況を把握し易くなるという効果を奏する。結婚披露宴での撮影シーンを例にとれば、まず、結婚披露宴の出席者(以下、単に出席者という)が、出席者が着席する円卓の中央に三脚等を使って全天球撮影装置1を置く。そして出席者は、まずスマートフォン3を用いて新郎新婦が着席する高砂席を撮影する。これにより、スマートフォン3は平面画像P1としての狭角画像を取得して平面画像P1を所定時間表示する。次に、出席者は全天球撮影装置1を用いて出席者が着席する円卓を含む周辺を撮影する。これにより、全天球撮影装置1は、正距円筒射影画像EC1としての広角画像を取得して正距円筒射影画像EC1をスマートフォン3に送信する。このような操作を行うことで、出席者は、スマートフォン3に表示される新郎新婦の画像を見て、その次に出席者が着席する自席の周りの様子も次々に見ることができるようになる。そのため、出席者は、披露宴会場という場における人物や雰囲気を、より一体感や臨場感のある画像とともに把握することが可能となる。なお、画像通信システムでの撮影シーンは上記の例に限定されず、例えば、建設現場などの各種現場においても、同様の効果が期待できる。
また、表示制御部37は、正距円筒射影画像EC1内の各所定領域Tを動画のフレームデータとして動画再生するのではなく、正距円筒射影画像EC1内の所定領域Tで示される所定領域画像Q11をずらしながら表示する。これにより、本実施形態では、動画の符号化処理をせずに、正距円筒射影画像EC1内の各所定領域Tを動画のように連続的に表示することができるため、符号化処理による負荷を軽減することができるという効果を奏する。
●第2の実施形態
続いて、図16乃至図19を用いて、本発明の第2の実施形態について説明する。
〔実施形態の機能構成〕
<スマートフォンの機能構成>
図16は、第2の実施形態に係る画像通信システムの機能ブロック図である。図11の機能ブロック図に対して、スマートフォン3の内部に検出部40が追加されている。なお、図16の各機能ブロックの主体となるシステム概略図及び各装置のハードウェア構成図は、図8乃至図10に示したシステム概略図及び各装置のハードウェア構成図と共通であるため、図16の検出部40の機能についてのみ説明する。
検出部40は、主に、CPU301の処理によって実現され、撮像部33で撮像、取得された撮像画像データに係る所定領域画像において、顔などの予め決められた特定の物体(人体)の候補となる特徴点を検出する。更に、検出部40は、検出した特徴点に対して、所定領域画像における顔などの予め定められた特定の物体の形状モデルを示す形状モデルデータを参照して、撮像画像の中の物体の位置(所定領域)を検出する。本実施形態において検出部40は、検出手段の一例である。なお、特定の物体の形状モデルを示す形状モデルデータは、撮像部33で撮像された狭角画像である写真画像を表す画像データを特定するためのデータとして使用される。さらに、形状モデルデータは、写真画像を表す画像データを特定するためのデータのほかに、イラスト、似顔絵等の絵画に関する画像を表す画像データを特定するためのデータとして使用されてもよい。
〔実施形態の処理又は動作〕
<表示の処理>
第2の実施形態では、第1の実施形態で上述した図12のステップS8における狭角画像及び広角画像に係る表示の処理が異なる。そこで、連携撮影処理を含むステップS1〜S7までの処理については、説明を省略する。図17は、第2の実施形態に係る所定領域画像の表示処理を示したフローチャートである。なお、図17は、所定領域画像の表示処理を示した図13を一部変更したものであるため、その変更箇所について以下に説明する。図19(a)は、第2の実施形態に係る平面画像と正距円筒射影画像における所定領域画像の表示時間及び表示範囲を示した図、図19(b)は、第2の実施形態に係るスマートフォンに平面画像が表示された図、図19(c),図19(d)は、第2の実施形態に係るスマートフォンに異なる時刻における正距円筒射影画像の所定領域画像を示した図である。なお、第2の実施形態においても、所定領域画像Q21が表示される範囲として、第1の実施形態で示した表示範囲DRで示される範囲を用いてもよい。
図17において、表示制御部37は、図19(a)に示されているように、ディスプレイ318上にステップS31で読み出された電子ファイル内の狭角画像データに係る平面画像P2(狭角画像)の全体を所定時間表示する(ステップS33)。所定時間とは、上述の狭角画像の表示時間(例えば、1.0秒間)である。この場合、図19(b)に示されているように、平面画像P2としての狭角画像は、t0からt1まで(例えば、1.0秒間)表示される。但し、ステップS32で読み出した表示設定情報に含まれる広角画像における表示範囲は、物体を検出できなかった場合に使用するものとする。なお平面画像P2に含まれる物体(人物、建造物等)も、第1の実施形態と同様に被写体の一例である。
続いて、検出部40は、広角画像データに対して、物体の候補となる特徴点を検出することで、所定領域中の画像(所定領域画像)における物体を検出する(ステップS33−1)。具体的には、検出部40は、検出対象である人物そのもの若しくはその人物の顔そのもの、又は、検出対象である人物の目、鼻、口などの顔の特徴点を検出する顔検出を行う。そして検出部40は、顔の特徴点の位置、大きさ等を正規化する。この場合、検出部40は、スマートフォン3で撮影された平面画像P2(狭角画像)に含まれる人物等の顔の画像から抽出された特徴量に基づいて得られた形状モデルデータと比較しながら撮像画像の始端から終端までの矩形を探索し、もっともらしい物体の特徴点の位置を選択する(ステップS33−2)。つまり、検出部40は、特定の物体(例えば、ある人物の顔)に類似する物体(顔)があるか否かを検索する類似画像検索を行う。なお、本実施形態では、事前にスマートフォン3により撮影され記憶部3000に予め記憶された人物等の顔(検出対象の一部)を、物体の形状モデルデータとして用いてもよい。さらに、事前に手書き又は機械により描かれ記憶部3000に予め記憶されたイラスト、似顔絵等の絵画における人物等の顔(検出対象の一部)を、物体の形状モデルデータとして用いてもよい。つまり、さまざまな利用シーンに応じて、形状モデルデータを選択的に取得できるようにしてもよい。より具体的には、検出部40は判断部45とともに、得られた特徴点の位置、大きさ等の形状に関連する情報に基づいて、検出した顔の特徴点を照合する照合処理を行う。照合処理の結果、顔の類似度を示す照合値(以下、単に類似度という)が所定の閾値以上の場合、判断部45は、人物の存在を確認した(もしくは、存在する人物が同一人物である)と判断する。一方、照合処理の結果、類似度を示す照合値が所定の閾値未満の場合、判断部45は、人物の存在を確認しなかった(もしくは、人物は存在したが同一人物でない(他人))と判断する。換言すると、照合する画像との類似度を示す照合値が所定の閾値以上であるか所定の閾値未満であるかに応じて、表示制御部37は、ディスプレイ318上に表示させる所定領域画像Q11を切り替える。
また、検出部40により行われる顔検出は上述した形状に関連する情報の例に限らず、例えば、顔の局所的な領域における明暗差を特徴量とし、その特徴量に基づいて顔検出(照合)をするものなど、種々の顔検出手法を用いてもよい。さらに、検出部40により行われる顔検出の他の例は、この後に説明する。この場合であっても、照合する画像との類似度が所定の閾値以上であるか所定の閾値未満であるかに応じて、表示制御部37は、ディスプレイ318上に表示させる所定領域画像Q11を切り替える。
なお、本処理については、例えば、「顔認識技術とその応用:パブリックセーフティを支える要素技術・ソリューション特集;バイオメトリクス認証, NEC技報,Vol.63, no.3, pp.26−30, 2010-09」で開示されている技術を用いることができる。なお検出部40は、上述した人物の顔検出に加えて、例えば、ペット等の動物、非生命体である物、及び建造物等の物体情報の検出、並びに、色情報、輝度情報、及び記号を含む文字情報の検出を行ってもよい。色情報としては、例えば、赤色が検出される。検出部40によって赤色が検出された後、表示制御部37は、赤色に関する部分を表示する。さらに検出部40により検出される色を肌色にすると、人物であるとの推定も可能になる。この場合、検出部40は、上述の顔認識技術を用いなくとも検出された色情報から人物の顔として検出することができる。このとき、例えば、人種別に検出される肌の色のバリエーションを加えるようにしてもよい。また、輝度情報としては、所定値以上の輝度を有する部分が検出されるようにしてもよい。さらに、記号を含む文字情報としては、例えば、建設現場において同じ文字、又は文字の有無が検出されるようにしてもよい。この場合、表示制御部37は、検出部40で検出された文字が存在する部分を表示するようにしてもよい。
このように、本実施形態においては、検出部40(判断部45)により行われる類似画像検索は、位置情報及び形状情報等の大きさ情報、色情報、輝度情報、文字情報などの特定の情報に対して行われてよい。そこで、検出部40による照合処理の結果、上述した特定の情報に対する類似度が所定の閾値以上であることを「類似する」とも呼び、本実施形態の以下の説明においては、便宜上「類似する」と記載する。
図18は、第2の実施形態に係る広角画像に対して顔検出処理の適用を示す概念図である。図18では、始端BE2から終端TE2まで所定領域となる矩形を探索し、パン角θ1、θ2でそれぞれ所定領域画像Q21及びQ24が検出されたことを示している。
図17に戻り、検出部40が物体を検出した場合(ステップS33−2;YES)、記憶・読出処理部39は、記憶部3000に、検出された所定領域画像を記憶する(ステップS33−3)。
一方、検出部40が物体を検出しなかった場合(ステップS33−2;NO)、スマートフォン3は、第1の実施形態で上述したように図13のステップS34以降の処理に進む。
続いて、判断部35は、表示すべき所定領域画像が残っているか否かを判断する(ステップS33−4)。表示すべき所定領域画像が残っている場合(ステップS33−4;YES)、記憶・読出処理部39は、記憶部3000から所定領域画像を読み出す(ステップS33−5)。
続いて、表示制御部37は、図19(c)に示されているように、平面画像P2としての狭角画像と同じアスペクト比によって、ディスプレイ318上に所定領域画像Q21をt2から所定時間表示する(ステップS33−6)。この所定時間は、例えば、1.0秒間である。その後、ステップS33−4に戻る。ここで、表示制御部37は、ステップS33−6で所定時間表示した所定領域画像を、記憶・読出処理部と協働して削除するようにしてもよい。なお、図19に示した時刻t1と時刻t2の間の時間については、以下の場合が考えられる。
(1)時刻t1と時刻t2の間が0秒(t1=t2)
(2)時刻t1と時刻t2の間が0秒以外(t1<t2)
また、それぞれの時間における時刻t1と時刻t2で表示される画像についても、以下の場合が考えられる。
(3)(1)の場合、時刻t1から所定領域画像Q21((c)の画像)を表示させて、時刻t2以降も所定領域画像Q21((c)の画像)を表示させる
(4)(2)の場合、時刻t1から時刻t2の間で平面画像P2((b)の画像)をそのまま表示させる
(5)(2)の場合、時刻t1から時刻t2の間で所定領域画像Q21((c)の画像)を表示させる
(6)(2)の場合、時刻t1から時刻t2の間は何も表示させない(表示させる画像の切替えとして使う)
などである。上述した図19における平面画像P2及び各所定領域画像Qの表示に係るタイミング制御は、後述する図21においても同様の考え方が適用可能である。
ステップS33−4に戻り、表示すべき所定領域画像が残っている場合は、表示制御部37は、図19(d)に示されているように、平面画像P2としての狭角画像と同じアスペクト比によって、ディスプレイ318上に所定領域画像Q24をt3から所定時間表示する(ステップS33−6)。この所定時間は、例えば、1.0秒間である。上述したように、検出部40は、平面画像P2に類似する所定領域があると判断した場合には、類似度の高い所定領域画像から順に複数の所定領域画像を表示する。ここで、類似度の高い所定領域画像から順に複数の所定領域画像を表示することについて説明する。図18で説明したように、検出部40は、例えば、記憶部3000に記憶した広角画像EC2全体(パン角θの0°〜360°の間)の始端BE2から終端TE2まで所定領域となる矩形を探索し、パン角θ1、θ2でそれぞれ所定領域画像(この場合は、Q21及びQ24)を検出する。検出部40はさらに、検出した各所定領域画像Q21及びQ24(三つ以上検出されてもよい)に対して、類似度の高い所定領域画像を検出して、いわゆる所定領域画像の並べ替えをスマートフォン3の内部で実行する。その後、表示制御部34は、これら検出及び並べ替えされた所定領域画像Q21及びQ24を、図19に示したような所望の時刻t2及びt3で表示させる。つまり、図18に示したような経度(パン角θ)と図19に示された時刻tとの相関関係は無視されてもよく、必ずしも、パン角θの小さい位置に存在する所定領域画像が時刻tの小さいタイミングから表示されるとは限らない。
一方、表示すべき所定領域画像が残っていない場合(ステップS33−4;NO)、スマートフォン3は、このフローによる処理を抜けて図13のステップS34以降の処理に戻る。そして、ステップS34以降の処理は、第1の実施形態と同様の処理が行われる。
〔本実施形態の主な効果〕
以上説明したように本実施形態によれば、表示制御部37は、図19に示されているように、最初にスマートフォン3で撮影することで得られた狭角画像P2を所定時間表示させ、続けて全天球撮影装置1で連携撮影することで得られた広角画像内において所定領域Tを連続的に移動させながら所定領域画像Q21を順に表示する。これにより、狭角画像P2の閲覧者は、狭角画像P2に映し出された被写体等を見ただけではどのような場所のどのような状況で撮影された画像であるかが分からなくても、所定時間毎に表示される狭角画像P2と類似する複数の所定領域画像(例えば、Q21,Q24)を時間軸tに対して間隔を置いて見ることで、どのような人がその場に一緒にいたのかという状況を素早く把握しできるようになるという効果を奏する。
また、表示制御部37は、正距円筒射影画像EC2内の各所定領域Tを動画のフレームデータとして動画再生するのではなく、正距円筒射影画像EC2内の所定領域Tで示される所定領域画像Q21をずらしながら表示する。これにより、本実施形態では、動画の符号化処理をせずに、正距円筒射影画像EC2内の各所定領域Tを動画のように連続的に表示することができるため、符号化処理による負荷を軽減することができるという効果を奏する。
なお、上述したように、時間軸tに対して間隔を置いて見るとは便宜上の表現であり、本実施形態においては所定領域画像を連続的に表示する形態の一例として扱う。
●第3の実施形態
続いて、図20及び図21を用いて、本発明の第3の実施形態について説明する。第3の実施形態に係る画像通信システムにおいても、第2の実施形態と同様のシステム構成、ハードウェア構成及び機能構成を備えるため、詳細な説明は省略する。なお、第3の実施形態においても、第2の実施形態で説明した形状モデル、形状モデルデータ及びそれらのバリエーションを利用することが可能である。
図20A,図20Bは、第3の実施形態に係る所定領域画像の表示処理を示したフローチャートである。図20では、上述した実施形態2のステップS33−2以降の処理が異なる。そこで、図20と同じ処理については説明を省略し、ステップS33−2;YES以降の処理から説明する。但し、第3の実施形態においても、検出部40は、特定の物体(例えば、ある人物の顔)に類似する物体(顔)があるか否かを検索する類似画像検索を行う。
図21(a)は、第3の実施形態に係る平面画像と正距円筒射影画像における所定領域画像の表示時間及び表示範囲を示した図である。図21(b)は第3の実施形態に係るスマートフォンに平面画像が表示された図である。図21(c),図21(d),図21(e)及び図21(f)は、第3の実施形態に係るスマートフォンに異なる時刻における正距円筒射影画像の所定領域画像を示した図である。なお、図21は、広角画像中に二つの顔画像が検出された場合のスマートフォン3における表示例である。なお、第3の実施形態においても、所定領域画像Q21、Q22、Q23及びQ24が表示される範囲として、第1の実施形態で示した表示範囲DRで示される範囲を用いてもよい。
図21において、表示制御部37は、図17のステップS33−6で実行した、平面画像P2としての狭角画像と同じアスペクト比によって、ディスプレイ318上に所定領域画像Q21をt2から所定時間表示する。この所定時間は、例えば、1.0秒間である。
続いて、記憶・読出処理部39は、記憶部3000に、検出された所定領域画像に対する所定領域情報(中心点CP,画角α)を記憶する(ステップS331−3)。
記憶・読出処理部39は、記憶部3000から一つ目の所定領域情報を読み出す(ステップS34)。
表示制御部37は、任意の所定領域Tにおける所定領域情報の表示継続時間を算出する(ステップS35)。
判断部35は、検出した物体の個数が2個以上であるか否かを判断する(ステップS35−1)。
検出した物体の個数が2個以上である場合(ステップS35−1;YES)、判断部35は、次に読み出す所定領域情報の有無を判断する(ステップS35−2)。
次に読み出す所定領域情報があると判断した場合(ステップS35−2;YES)、記憶・読出処理部39は、記憶部3000から次の所定領域情報を読み出す(ステップS35−3)。
続いて、表示制御部37は、図21(c)に示すように、平面画像P2としての狭角画像と同じアスペクト比で、ディスプレイ318上に一つ前に読み出した所定領域情報に対する所定領域画像Q21を時刻t2から表示する(ステップS35−4)。ここで、表示制御部37は、ステップS35−4で時刻t2から表示した所定領域画像Q21を、所定時間経過後に記憶・読出処理部と協働して削除するようにしてもよい。
次に、表示制御部37は、広角画像EC2内で、上記算出した表示継続時間(例えば、0.005秒)後に、所定領域画像Q21を移動して所定領域画像をディスプレイ318上に表示する(ステップS35−5)。このときに表示される所定領域画像は、例えば、図21(d)に示されたように、時刻t3から表示される所定領域画像Q22である。上述した表示方法は、例えば、直近で読み出した所定領域情報とひとつ前に読み出した所定領域情報における互いの所定領域との中心点CP間の直線上を移動させることで実現される。また、中心点CPはパン角θとチルト角φにより求まるため、パン角θを基準にしてチルト角φは以下の(式2)に従って求められる。ここで、パン角θの1回の移動量は所定角度(例えば1°)とする。
Figure 2021132370
続いて、判断部35は、所定領域画像における移動方向の先端a21が、正距円筒射影画像EC2としての広角画像の所定領域情報が示す位置に到達したか否かを判断する(ステップS35−6)。この広角画像の所定領域情報が示す位置とは、上述したステップS35−3で記憶・読出処理部39が記憶部3000から読み出した所定領域情報が示す位置である。所定領域画像の先端a21が正距円筒射影画像EC2としての広角画像のパン角θ2に到達した場合(ステップS35−6:YES)、スマートフォン3は、このフローを抜けて図13のステップS34以降の処理に戻る。
一方、所定領域画像の先端a21が正距円筒射影画像EC2としての広角画像のパン角θ2に到達していない場合(ステップS35−6;NO)、判断部35は、ステップS35−5の処理に戻り、表示制御部37が、広角画像内で上記算出した表示継続時間後に、所定角度及び所定領域画像を上述の(式2)に基づいて算出した量だけ移動してディスプレイ318上に表示する。このときに表示される所定領域画像は、例えば、図21(e)に示されたように、時刻t4から表示される所定領域画像Q23であり、時刻t5から表示される所定領域画像Q24である。
ここで、ステップS35−4で表示したパン角θがθ1だとすれば、ステップS35−5,S35−6の処理を繰り返すことで、所定領域画像は、時刻t2からt5までの間でパン角θを増加させるように移動する(図21(c),(d),(e),(f))。上述した所定領域画像を移動させる処理によって、所定領域画像の先端a21が正距円筒射影画像EC2としての広角画像のパン角θ=θ2に到達した場合、表示制御部37は、図20−Aの表示処理を終了する。
ステップS35−1の判断において、検出した物体の個数が1個である場合(ステップS35−1;NO)、表示制御部37は、図21(b)に示されているように、平面画像P2としての狭角画像と同じアスペクト比で、ディスプレイ318上に一つ前に読み出した所定領域情報に対する所定領域画像を表示する(ステップS36−1)。なお、ステップS36−1の処理は、ステップS35−4の処理と同様である。
続いて、図13のステップS37と同様の処理として、表示制御部37は、広角画像内で、上記算出した表示継続時間(例えば、0.005秒)後に、所定角度(例えば、パン角θ=1°)、所定領域画像を移動してディスプレイ318上に表示する(ステップS37)。
続いて、判断部35は、所定領域画像における移動方向の先端a21が正距円筒射影画像としての広角画像のステップS34で読み出した位置に到達したか否かを判断する(ステップS38−1)。到達していない場合(ステップS38−1;NO)、判断部35はステップS37の処理に戻り、表示制御部37が、再度広角画像内で上述にて算出した表示継続時間後に所定角度だけ所定領域画像を移動させてディスプレイ318上に所定領域画像Q21を表示する。ここで、ステップS36で表示したパン角がθ1だとすれば、ステップS37,S38の処理を繰り返すことで、所定領域画像は、パン角θを増加させるように移動する。所定領域画像が移動すると、所定領域画像の先端a21は正距円筒射影画像EC2としての広角画像の終端TE2に到達するが、その後、始端BE2に戻って移動を継続する。
一方、到達している場合(ステップS38−1;YES)、判断部35は、このフローを抜けて処理を終了する。
〔本実施形態の主な効果〕
以上説明したように本実施形態によれば、表示制御部37は、図21に示されているように、最初にスマートフォン3で撮影することで得られた平面画像P2としての狭角画像を所定時間表示させ、続けて全天球撮影装置1で連携撮影することで得られた広角画像内において所定領域Tをより細かな時間毎に連続的に移動させながら所定領域画像Q21、Q21,Q23及びQ24を順に表示する。これにより、狭角画像の閲覧者は、狭角画像に映し出された被写体等を見ただけではどのような場所のどのような状況で撮影された画像であるかが分からなくても、所定時間毎に次々に表示される複数の所定領域画像(例えば、Q21,Q22,Q23及びQ24)を見ることで、狭角画像と類似する所定領域画像間も含めた周囲の状況をより詳細に把握できるという効果を奏する。
上述した第3の実施形態によれば、狭角画像の閲覧者は、狭角画像と類似する所定領域画像間も含めた周囲の状況を把握できるという効果を奏する。
また、表示制御部37は、正距円筒射影画像EC2内の各所定領域Tを動画のフレームデータとして動画再生するのではなく、正距円筒射影画像EC2内の所定領域Tで示される所定領域画像Q21をずらしながら表示する。これにより、本実施形態では、動画の符号化処理をせずに、正距円筒射影画像EC2内の各所定領域Tを動画のように連続的に表示することができるため、符号化処理による負荷を軽減することができるという効果を奏する。
●第4の実施形態
続いて、図22乃至図24を用いて、本発明の第4の実施形態について説明する。第4の実施形態に係る画像通信システムにおいても、第2、第3の実施形態と同様のシステム構成、ハードウェア構成及び機能構成を備えるため、詳細な説明は省略する。なお、第4の実施形態においても、第2の実施形態で説明した形状モデル、形状モデルデータ及びそれらのバリエーションを利用することが可能である。
図22は、第4の実施形態に係る所定領域画像の表示処理を示したフローチャートである。図22では、ステップS31〜S331−3までの処理は、第3の実施形態で説明したステップS31〜S331−3までの処理と同じ処理であるため説明を省略し、ステップS331−4以降の処理から説明する。但し、第4の実施形態においても、検出部40は、特定の物体(例えば、ある人物の顔)に類似する物体(顔)があるか否かを検索する類似画像検索を行う。
図23(a)は、第4の実施形態に係る平面画像と正距円筒射影画像における所定領域画像の表示時間及び表示範囲を示した図、図23(b),(c),(d),(e)は、第4の実施形態に係るスマートフォンに異なる時刻における正距円筒射影画像における所定領域画像を示した図である。但し、第4の実施形態では、異なる時刻における正距円筒射影画像における所定領域画像が、経度方向を示すパン角θの方向ではなく、緯度方向を示すチルト角Φの方向に移動する一例を示すものである。なお、図23では、時間軸tが縦軸になっている。
図22に戻り、表示制御部37は、図20AのステップS33−2で検出した所定領域画像を、画像などを表示する際に視認性を高めるために縮小させた画像であるサムネイル画像のアスペクト比で表示する(ステップS331−4)。この処理に対応する画面表示例は、図23に示されたように、時刻pt0(t0)においてディスプレイ318上に表示された平面画像P2である。
なお、上述したサムネイル画像は、例えば、図24に示されたような画像で、類似画像検索の結果取得された画像である。図24は、第4の実施形態に係る所定領域画像を選択する画面の表示例を示した図である。図24では、スマートフォン3のディスプレイ318に、例えば、人物Aの頭部付近の平面画像P2に相当する所定領域画像QA、及び人物Bの頭部付近の平面画像P2に相当する所定領域画像QBが表示されている。さらに、所定領域画像QA又は所定領域画像QBが利用者によって選択された後、所定領域画像を移動する処理を開始するための実行ボタン45がディスプレイ318に表示されている。利用者が所定領域画像QA又は所定領域画像QBのいずれかを選択した後、実行ボタン45を操作することで、受付部32は、選択された所定領域画像を受け付け、第2乃至第4の実施形態における処理を開始することができる。
ステップS331−4の処理に続いて、記憶・読出処理部39は、記憶部3000に検出された所定領域画像を抽出して記憶する(ステップS33−3)。
続いて、受付部32は、図24に示された所定領域画像QA又は所定領域画像QBに対する利用者の入力(選択操作、所望の所定領域画像に対するタップ操作等)を受け付ける(ステップS331−5)。
続いて、記憶・読出処理部39は、記憶部3000からステップS331−5で受け付けた所定領域画像に対する所定領域情報(中心点CP、画角α)を読み出す(ステップS331−6)。
続いて、表示制御部37は、平面画像P2としての狭角画像と同じアスペクト比で、ディスプレイ318上に所定領域画像を表示する(ステップS331−7)。このとき表示制御部37が表示する所定領域画像は、ステップS331−6で読み出した所定領域情報のチルト角φを0°に移動した画像である。この処理に対応する画面表示例は、図23の時刻pt0から時刻pt1までの間においてディスプレイ318上に表示された図23(b)の画像である。
続いて、表示制御部37は、広角画像内で、上述の(式2)で算出した表示継続時間(例えば、0.005秒)後に、所定角度(例えば、Φ=1°)、所定領域画像を移動してディスプレイ318上に表示する(ステップS331−8)。ここでは、移動方向は、全天球画像における赤道に対して垂直方向である。この処理に対応する画面表示例は、図23の時刻pt1においてディスプレイ318上に表示された図23(c)の所定領域画像PQ21である。この所定領域画像PQ21は、サムネイル画像表示された人物の足元の画像である。
次に、判断部35は、所定領域画像における移動方向の先端が正距円筒射影画像としての広角画像のステップS331−6で読み出した位置に到達したか否かを判断する(ステップS331−9)。読み出した位置に到達していない場合(ステップS331−9;NO)、判断部35は、ステップS331−8の処理に戻り、表示制御部37は、再び、広角画像内で上記算出した表示継続時間後に、所定角度、所定領域画像を移動してディスプレイ318上に表示する。この処理に対応する画面表示例は、図23の時刻pt2においてディスプレイ318上に表示される図23(d)の所定領域画像PQ22である。この所定領域画像PQ22は、サムネイル画像表示された人物の腰付近の画像である。
さらに、表示制御部37は、再び、広角画像内で上記算出した表示継続時間後に、所定角度、所定領域画像を移動してディスプレイ318上に表示する。この処理に対応する画面表示例は、図23の時刻pt3においてディスプレイ318上に表示される図23(e)の所定領域画像PQ23である。この所定領域画像PQ23は、サムネイル画像表示された人物の頭部(顔)の画像である。図23(b)、(c)、(d)及び(e)に示したように、平面画像P2,所定領域画像Q21,Q22及びQ23に表示されるサムネイル画像は、人物の頭部に限らず、足、腰などの全身のうちの一部を表示させるための画像であってもよい。つまり、被写体は、例えば、人物、動物、建造物等の物体の全体を含むものであってよい。
これまでに説明した、人物が検知された場合に平面画像と同じアスペクト比で表示する例に関しては、以下の方法が考えられる。例えば、狭角画像を表示するスマートフォン3の画面のアスペクト比(縦横比)は既知の値であるため、スマートフォン3で撮影された平面画像P2のアスペクト比も一意に決まった値として得ることができる。この一意に決まった値を用いて、平面画像P2としての狭角画像と同じアスペクト比でディスプレイ318上に所定領域画像を表示するようにしてもよい。
第4の実施形態では、表示制御部37は、チルト角Φ方向、すなわち、所定領域画像に向かって赤道に対して垂直方向に所定領域の表示範囲を移動表示する。これによって、例えば、所定領域画像が顔の画像であった場合は、顔の画像を含め人物の全身画像を確認することができる。垂直方向に所定領域の表示範囲を移動表示する処理は、例えば、図23及び図24に示した人物画像の足元から頭部にかけて垂直に移動する処理である。なお、本実施形態では、チルト角は0°を起点として増加する方向に移動したが、360°を起点として減少する方向に移動させてもよい。つまり、人物画像の頭部(顔)から足元にかけて垂直に移動するようにしてもよい。
ステップS331−9の判断で読み出した位置に到達したと判断した場合(ステップS331−9;YES)、判断部35は、ステップS36以降の処理を実行する。なお、ステップS36以降の処理に係る所定領域画像の表示の移動方向は、全天球画像における赤道に対して水平方向である。
その後、表示制御部37は、検出部40による特定の物体(例えば、ある人物の顔)に類似する物体(顔)があるか否かを検索する類似画像検索を伴い、所定領域画像を連続的に移動させて、第2乃至第4の実施形態におけるステップS36以降の処理を実行する。
なお、図24に示したように、スマートフォン3のディスプレイ318にサムネイル画像表示された画像を選択して所定領域画像を移動させる方法は、上述した第2の実施形態乃至第4の実施形態に係る適切な処理タイミングにおいて、共通に利用することができる。
〔本実施形態の主な効果〕
以上説明したように本実施形態によれば、表示制御部37は、スマートフォン3のディスプレイ318に、例えば、人物Aの頭部付近の平面画像P2に相当する所定領域画像QA、及び人物Bの頭部付近の平面画像P2に相当する所定領域画像QBを表示する。表示された所定領域画像QA又はQBのいずれかが利用者に選択された後、利用者によって所定領域画像を移動する処理を開始するための実行ボタン45が操作されることで、受付部32が所定領域画像の選択を受け付ける。これにより、狭角画像の閲覧者が所望する被写体の所定領域画像から画像の移動を開始することができる。
なお、本実施形態では、所定領域画像に向かって赤道に対して垂直方向に所定領域の表示範囲を移動表示することによって、例えば、所定領域画像が顔画像であった場合は、人物の全身画像を確認することができる。その後、表示制御部37は、図22及び図23に示されているように、最初にスマートフォン3で撮影することで得られた平面画像P2としての狭角画像を所定時間表示させ、続けてその狭角画像をチルト角Φ方向(赤道と垂直方向)に連続的に移動させながら所定領域画像を順に表示する。その後、表示制御部37は、所定領域画像をパン角θ方向(赤道と水平方向)に連続的に移動させながら連続的に移動する。これにより、利用者(閲覧者)は、狭角画像に映し出された被写体の特徴部を顔のみならず他の部分を確認したうえで次々に表示される所定領域画像を見ることで、その被写体の特徴をより明確に認識し、被写体が表示されている場所や状況を把握し易くできるようになる。すなわち、利用者に対して、所定領域画像を形成する被写体の詳細のみならず、所定領域画像を取り巻く周囲の状況もより詳細に把握できるという効果を奏する。
また、表示制御部37は、正距円筒射影画像EC2内の各所定領域Tを動画のフレームデータとして動画再生するのではなく、正距円筒射影画像EC2内の所定領域Tで示される所定領域画像をずらしながら表示する。これにより、本実施形態では、動画の符号化処理をせずに、正距円筒射影画像EC2内の各所定領域Tを動画のように連続的に表示することができるため、符号化処理による負荷を軽減することができるという効果を奏する。
〔第1乃至第4の実施形態の変形例〕
続いて、図25を用いて、第1乃至第4の実施形態に係る連携撮影処理の変形例を説明する。図25は、第1乃至第4の実施形態に係る連携撮影処理の変形例を示したシーケンス図である。図12では、スマートフォン3側での撮影の開始が全天球撮影装置1側に連携されていたが、図25では、全天球撮影装置1側での撮影の開始がスマートフォン3側に連携される。以下、詳細に説明する。なお、図25に示す処理に先立って、スマートフォン3と全天球撮影装置1との通信接続は、Wi−Fi及びBluetoothにより確立しているものとする。
まず、全天球撮影装置1受付部12は、利用者Aから撮影の開始を受け付ける(ステップS11)。これにより、撮像部13は風景等を撮影することで二つの半球画像データを得て、画像・音処理部16が二つの半球画像データから正距円筒射影画像データとしての広角画像データを作成する(ステップS12)。なお、この場合、集音部14が音を集音して音データを作成することで、広角画像データに関連付けてもよい。
次に、全天球撮影装置1の撮像部13が所定時間待機する(ステップS13)。例えば、所定時間は3秒間である。また、ステップS12の撮影の処理において、利用者A自身が被写体となっていた場合、この待機時間によって、利用者Aは、スマートフォン3を持ち直すか又は全天球撮影装置1からスマートフォン3に持ち替えるための準備時間を設けることができる。
次に、全天球撮影装置1の通信部18が、スマートフォン3に対して、撮影開始の要求を示す撮影要求情報を、Bluetoothを利用して送信する(ステップS14)。これにより、スマートフォン3の通信部38は、撮影要求情報を受信する。そして、スマートフォン3では、撮像部33が被写体等を撮影し、画像・音処理部36が狭角画像データを作成する(ステップS15)。
次に、全天球撮影装置1の通信部18は、スマートフォン3に対して、ステップS12で得られた広角画像データを、Wi−Fiを利用して送信する(ステップS16)。これにより、スマートフォン3の通信部38は、広角画像データを受信する。なお、本実施形態の画像通信システムにおいて、全天球撮影装置1の通信部18から二つの半球画像データをスマートフォン3に対して送信し、スマートフォン3側で二つの半球画像データを合成して正距円筒射影画像データとしての広角画像データを作成するよう構成してもよい。上述したステップS14の送受信に利用するBluetoothは、第1の通信方式の一例であり、ステップS16の送受信に利用するWi−Fiは、第2の通信方式の一例である。
上記ステップS11〜S16の処理により、スマートフォン3では、自端末では撮影により得ることができない広角画像データを取得することができる。また、スマートフォン3と全天球撮影装置1の間で撮影の連携処理を行うことで、撮影タイミングを同期させることができる。
次に、スマートフォン3の画像・音処理部36が、ステップS15で得られた狭角画像データとステップS16で得られた広角画像データとを一つの電子ファイルに格納して、記憶・読出処理部39が、この一つの電子ファイルのデータを記憶部3000に記憶する(ステップS17)。なお、狭角画像データ及び広角画像データは、スマートフォン3以外に設けられた他の記憶部に記憶されてもよい。他の記憶部としては、例えば、クラウドサーバ等の外部サーバなどが考えられる。こうすることで、狭角画像データ及び広角画像データの共有化が可能となる。そして、スマートフォン3の表示制御部37は、ディスプレイ318に対して、狭角画像及び広角画像の表示の処理を行う(ステップS18)。なお、ステップS18の処理は、図12のステップS18及び図13の処理と同様であるため、説明を省略する。
〔変形例の主な効果〕
以上説明したように第1の実施形態の変形例によれば、利用者Aがスマートフォン3から離れた場所の広角画像を視認した上で、全天球撮影装置1からスマートフォン3に広角画像データを送信することが可能になる。船内パーティの撮影を例にとれば、スマートフォン3を船内にいる他人にあずけて撮影範囲を指示しておき、利用者A本人は、全天球撮影装置1を持って、船上に出る。そして、利用者Aが所望する撮影のタイミング(例えば、船が橋にさしかかったタイミング)で船外の風景を撮影することができる。なお、この場合、利用者Aが全天球撮影装置1を船外に持ち出したが、全天球撮影装置1を船内に置き、スマートフォン3を船上に持ち出してもよい。この場合、船上で狭角画像データを得ることになるため、周囲の全風景ではなく、利用者Aの心に留まった一部のシーン(例えば、船上から見た船内パーティのシーン)を確認して撮影したい場合に有効になる。
●第5の実施形態
続いて、図26乃至図30を用いて、本発明の第5の実施形態について説明する。
〔画像通信システムの構成の概略〕
まず、図26用いて、第5の実施形態に係る画像通信システムの構成の概略について説明する。図26は、第5の実施形態に係る画像通信システムの概略図である。第5の実施形態では、図8に示されているシステム構成に対して、更に、画像管理サーバ5及びアクセスポイント7が追加されている。
第1の実施形態では、スマートフォン3は全天球撮影装置1とWi−Fiによってデータ通信を行っていた。これに対して、第5の実施形態では、スマートフォン3と画像管理サーバ5との間のデータ授受を仲介するために、別途アクセスポイント7が追加されている。スマートフォン3は、全天球撮影装置1との通信をアクセスポイント7へ切り替えることにより、画像管理サーバ5とデータ通信することができる。これにより、画像管理サーバ5は、アクセスポイント7を介して、スマートフォン3とデータ通信を行うことができる。画像管理サーバ5は、コンピュータによって構成されている。なお、画像管理サーバ5は、単一コンピュータによって構成されてもよいし、複数のコンピュータによって構成されてもよい。また、本実施形態において画像管理サーバ5は、画像管理装置の一例である。なお、第5の実施形態においても、第2の実施形態で説明した形状モデル、形状モデルデータ及びそれらのバリエーションを利用することが可能である。
〔実施形態のハードウェア構成〕
次に、図27を用いて、本実施形態の画像管理サーバ5のハードウェア構成を詳細に説明する。なお、撮影装置1とスマートフォン3のハードウェア構成は、第2乃至第4の実施形態と同様であるため、これらの説明を省略する。なお、アクセスポイント7は、汎用性のある一般のアクセスポイントであるため、ハードウェア構成の説明を省略する。
<画像管理サーバのハードウェア構成>
図27は、第5の実施形態に係る画像管理サーバ5のハードウェア構成図である。画像管理サーバ5は、コンピュータによって構築されており、図27に示されているように、CPU501、ROM502、RAM503、HD504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、データバス510、キーボード511、ポインティングデバイス512、DVD−RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。
これらのうち、CPU501は、画像管理サーバ5全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。バスライン510は、図5に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
また、キーボード511は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD−RWドライブ514は、着脱可能な記録媒体の一例としてのDVD−RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD−RWに限らず、DVD−RやBlu-ray Disc(ブルーレイディスク)等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。
〔実施形態の機能構成〕
次に、図28を用いて、本実施形態の機能構成について説明する。図28は、第5の実施形態に係る画像通信システムの機能ブロック図である。なお、撮影装置1とスマートフォン3の機能構成は、第2乃至第4の実施形態と同様であるため、同様の機能構成には同じ符号を付して、説明を省略する。なお、アクセスポイント7は、汎用性のある一般のアクセスポイントであるため、機能構成の説明を省略する。
<画像管理サーバの機能構成>
図28を用いて、画像管理サーバ5の機能構成について詳細に説明する。図28に示されているように、画像管理サーバ5は、送受信部51、判断部55、算出部56及び記憶・読出処理部59を有している。これら各部は、図27に示されている各構成要素のいずれかが、HD504からRAM503上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、画像管理サーバ5は、図27に示されているROM502、及びHD504によって構築される記憶部5000を有している。
(画像管理サーバの各機能構成)
次に、図28を用いて、画像管理サーバ5の各機能構成について更に詳細に説明する。画像管理サーバ5の送受信部51は、主に、ネットワークI/F510に対するCPU501の処理によって実現され、インターネット等の通信ネットワークを介して、他の装置(例えば、スマートフォン3)との間で各種データ(又は情報)の送受信を行う。
判断部55は、主に、CPU501の処理によって実現され、後述の各種判断を行う。
算出部56は、主に、CPU501の処理によって実現され、後述の各種算出を行う。
記憶・読出処理部59は、主に、CPU501の処理によって実現され、記憶部5000に、各種データ(又は情報)を記憶したり、記憶部5000から各種データ(又は情報)を読み出したりする。
〔実施形態の処理又は動作〕
図29を用いて、第5の実施形態の処理又は動作について説明する。図29は、第5の実施形態に係るファイルデータの通信処理を示したシーケンス図である。第5の実施形態では、第2乃至第4の実施形態のステップS7(又はステップS17)とステップS8(又はステップS18)との間の処理として説明する。
まず、ステップS7(又はステップS17)の処理後、スマートフォン3の通信部38がアクセスポイント7対して接続要求を示す接続要求情報を送信する(ステップS101)。これにより、アクセスポイント7は、接続要求情報を受信する。
次に、アクセスポイント7は、スマートフォン3に対して接続許可を示す接続許可情報を送信する(ステップS102)。これにより、スマートフォン3の通信部38は、接続許可情報を受信する。ステップS101,S102の処理により、スマートフォン3のWi−Fiの接続先が全天球撮影装置1からアクセスポイント7に切り替わる。
次に、スマートフォン3の通信部38が、上記ステップS2(又はステップS15)で取得された狭角画像データを、アクセスポイント7経由で画像管理サーバ5へ送信する(ステップS103)。
これにより、画像管理サーバ5の送受信部51は、狭角画像データを受信する。
次に、画像管理サーバ5は、狭角画像データに対する照合処理を実行する(ステップS104)。ここで、図30を用いて、照合処理を詳細に説明する。図30は、狭角撮影データに対する照合処理を示したフローチャートである。
図30に示されているように、画像管理サーバ5の判断部55は、記憶部5000に記憶されている電子ファイルが、照合すべき電子ファイルとして残っているか否かを判断する(ステップS131)。そして、残っている場合には(ステップS131;YES)、記憶・読出処理部59は、電子ファイルに含まれている狭角撮影データを読み出す(ステップS132)。
次に、算出部56は、撮影後にステップS103の処理で受信された狭角撮影データ、及びステップS132の処理で読み出された狭角撮影データを比較して、ハミング距離を算出する(ステップS133)。この距離の算出には、様々な手法があるが、ここでは、よく知られたAverage HashをステップS103で受信された狭角画像データの特徴量とし、算出部56は、以下のように、64bit特徴量(ハッシュ値)の距離を求める。
(1)狭角撮影データをグレースケールデータに変換する。
(2)グレースケールデータが64(8x8)画素になるように画像を縮小する。
(3)全画素に対する平均値を求める。
(4)各画素値に対して平均値以上であれば1、平均値未満であれば0とし、64ビット列(ハッシュ値)を求める。
(5)照合する二つの狭角画像データに対して得られたハッシュ値のハミング距離を求める。
次に、判断部55は、ステップS133の処理で算出された距離L1と、これまでの照合により得られた最小距離L0とを比較し、距離L1が最小距離L0よりも短いか否かを判断する(ステップS134)。そして、短い場合には(ステップS134;YES)、記憶・読出処理部59が、距離L1を最小距離として更新し、ステップS132で読み出した狭角画像データに付けられているファイル名と組にして一時的に記憶部3000に記憶する(ステップS135)。その後、S131の処理に戻る。また、上記ステップS134の処理によって、距離L1が最小距離L0よりも短くない場合には(ステップS134;NO)、ステップS131の処理に戻る。
一方、上記ステップS131の処理によって、記憶部5000に記憶されている電子ファイルが、照合すべき電子ファイルとして残っていない場合には(ステップS131;NO)、記憶・読出処理部59が、上記ステップS135の処理で一時的にされているファイル名の電子ファイルデータを読み出す(ステップS136)。
以上により、図30のステップS104の処理が終了する。
続いて、画像管理サーバ5の送受信部51は、ステップS136の処理により読み出された電子ファイルデータをアクセスポイント経由でスマートフォン3へ送信する(ステップS105)。これにより、スマートフォン3の通信部38は、電子ファイルデータを受信する。
次に、スマートフォン3の記憶・読出処理部39は、ステップS105によって受信された電子ファイルデータを記憶部3000に記憶する(ステップS106)。
次に、スマートフォン3の記憶・読出処理部39は、上記ステップS7で記憶された電子ファイルデータを読み出す(ステップS107)。そして、通信部38は、ステップS107で読み出された電子ファイルデータをアクセスポイント7経由で画像管理サーバ5へ送信する(ステップS108)。これにより、画像管理サーバ5の送受信部51が、電子ファイルデータを受信する。
次に、画像管理サーバ5の記憶・読出処理部59は、ステップS108で受信された電子ファイルデータを記憶部5000に記憶する(ステップS109)。このステップS107,S108の処理によって、画像管理サーバ5で管理されている電子ファイルデータを常に最新状態に保つことができる。
次に、スマートフォン3の通信部38は、全天球撮影装置1に対して、接続要求を示す接続要求情報を送信する(ステップS110)。これにより、全天球撮影画像1の送受信部11は、接続要求情報を受信する。
次に、全天球撮影装置1は、スマートフォン3に対して接続許可を示す接続許可情報を送信する(ステップS111)。これにより、スマートフォン3の通信部38は、接続許可情報を受信する。このステップS110,S111の処理により、Wi−Fiの接続先がアクセスポイント7から全天球撮影装置1に戻るため、利用者Aはすぐに次の連携撮影を実施することができる。
〔本実施形態の主な効果〕
以上説明したように本実施形態によれば、第2乃至第4の実施形態の効果を奏すると共に、画像管理サーバ5で電子ファイルデータを管理するため、広角画像データが大容量であったり、多数のデータ数であったりしても、スマートフォン3の記憶部3000の空き容量を圧迫することがないという効果を奏する。
〔第5の実施形態に係る所定領域画像の表示〕
第1乃至第4及びその他の実施形態で説明したように、第5の実施形態に係る画像通信システムにおいても所定領域画像の表示を行うことができる。具体的には、上述した図13、図17、図20及び図22の各処理において、画像管理サーバ5の判断部55及び記憶・読出処理部59が、アクセスポイント7を介してスマートフォン3の判断部35及び記憶・読出処理部39にそれぞれ成り代わって実行するようにしてもよい。なお、上述したスマートフォン3の機能部以外の各機能部は、第5の実施形態においても第1乃至第4及びその他の実施形態と同様の処理を実行する機能を担う。このような態様により、利用者(閲覧者)は、第1乃至第4及びその他の実施形態で説明した場合と同様の効果を得ることができる。
〔第5の実施形態の変形例〕
なお、第5の実施形態における図12又は図25のステップS8(又はステップS18)の表示の処理は、所定領域画像の表示処理に係るフローチャートの処理を実行する際に、電子ファイルを異ならせて2回繰り返してもよい。
具体的には、1回目及び2回目の電子ファイルのそれぞれを、ステップS7(又はステップS17)で記憶された電子ファイルデータ、及びステップS106で記憶された電子ファイルデータとする。これにより、表示制御部37は、ディスプレイ318上に、直近の撮影されることで得られた電子ファイルデータの表示の後に続けて、過去の似たような電子ファイルデータを表示することができる。そのため、利用者の過去の記憶を呼び覚ますことができ、撮影した情景をさらに印象づけることが可能になるという効果を奏する。
また、図29のステップS104の処理において、画像管理サーバ5は、位置情報を照合させてもよい。この場合、スマートフォン3は、ステップS2(又はステップS15)の撮影時に、GPS受信部311によって位置情報を取得しておく。位置情報には、撮影位置の緯度と撮影位置の経度が含まれている。これにより、ステップS7(又はS17)の処理では、記憶・読出処理部39が、狭角画像データに位置情報を埋め込んで記憶しておく。このフォーマットには、公知のExif (Exchangeable Image File format)を利用することができる。この場合、図29のステップS103の処理では、通信部38は、狭角画像データに加えて位置情報も送信する。また、図30のステップS132の処理では、記憶・読出処理部59は、狭角画像データに加えて位置情報も読み出す。そして、ステップS133の処理では、算出部46が、位置情報で示された座標(撮影緯度、撮影経度)間がユークリッド距離等で算出する。これにより、利用者が過去に同じ又は近くの場所でどのような撮影をしたのかを思い出すことに役立てるという効果を奏する。なお、位置情報は、スマートフォン3に設けられたGPS受信部311によって取得されるようにしてもよい。
また、第5の実施形態では、通信部38がアクセスポイント7を介して画像管理サーバ5と通信を行ったが、送受信部31がインターネット等の通信ネットワークを介して画像管理サーバ5と通信を行ってもよい。
●補足
上述の各実施形態における各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU(Graphics Processing Unit)、及び従来の回路モジュール等のデバイスを含む。
また、インターネット等の通信ネットワークには、ブロックチェーンによって構築されたネットワークも含まれる。
図12のステップS3における所定の待機時間は、利用者によってスマートフォン3に設定できるようにしてもよい。例えば、待機時間を0秒と設定しておけば、待ち時間は発生せず、スマートフォン3と全天球撮影装置1とで同時に撮影することができる。また、ステップS3及びステップS13の処理は無くてもよい。即ち、待機時間無しで、すぐにステップS4の処理が開始されてもよい。この処理は、所定時間が可である場合に、待機時間を0秒とした場合と同様に行われる。さらに、図16のステップS13における待機時間は、利用者によって全天球撮影装置1に直接設定できるようにしてもよいし、利用者によってスマートフォン3からBluetooth等を利用して間接的に設定できるようにしてもよい。
また、図12のステップS4,S6及び図16のステップS14,S16は、Bluetooth、及びWi−Fiのいずれか一方のみを利用してもよい。
また、上述した実施形態では、スマートフォン3と全天球撮影装置1が別々に撮影した後に、スマートフォン3が自動的に一つの電子ファイルとして記憶部3000に記憶する(ステップS7)が、これに限るものではない。例えば、スマートフォン3と全天球撮影装置1が別々に撮影した後に、利用者AがPC等にぞれぞれで撮影されることで得られた画像データ(音データを含む)を取り込み、PC等でマージした後に、PC等からスマートフォン3の記憶部3000に転送してもよい。
また、図12のステップS7で、記憶・読出処理部39が電子ファイルデータを記憶する場合、ステップS8の処理に進まずに、表示制御部37がディスプレイ318上にファイル名を受け付けるユーザインタフェース表示させるようにしてもよい。この場合、後ほど、利用者Aの操作により所望の電子ファイルデータを読み出して、スマートフォン3がステップS8の表示の処理を行ってもよい。これにより、撮影時だけではなく、利用者が所望したときにいつでも表示内容を確認することができる。
また、図15に示されているように、表示制御部37は、待機時間t1後に狭角画像から所定領域画像に表示を切り替えるが、これに限るものではない。例えば、利用者Aによってスマートフォン3にタッチ等の操作入力があるまでは、表示制御部37は狭角画像の表示を継続する。そして、利用者Aの操作入力があると、タッチ等の操作入力が続いている間(タッチした状態のままの間)は、表示制御部37は、所定領域画像の移動表示を行う。そして、利用者Aの操作入力が終了すると、表示制御部37は、また広角画像を表示するようにしてもよい。この表示方法によれば、利用者Aの所望するタイミングで狭角画像と広角画像の表示を切替えることができる。
また、表示制御部37は、図15に示されているように、狭角画像としての平面画像P1を表示した後に広角画像における所定領域画像Q11を表示しているが、これに限るものではない。例えば、表示制御部37は、広角画像としての正距円筒射影画像EC1内の全ての所定領域Tに渡って所定領域画像Q11を表示した後に、狭角画像としての平面画像P1を表示することで、表示順を変えてもよい。この考え方は、第2の実施形態以降の実施形態においても同様に適用可能である。
更に、上述した各実施形態では、表示制御部37が、狭角画像の次に広角画像の所定領域画像を表示する一連の表示パターン(第1の表示パターン)を行ったが、これに限るものではない。例えば、表示制御部37は、狭角画像の次に広角画像の所定領域画像を表示する一連の処理を繰り返す表示パターン(第2の表示パターン)にしてもよい。また、表示制御部37は、狭角画像の次に広角画像の所定領域画像を表示した後、再度、一度だけ狭角画像を表示する表示パターン(第3の表示パターン)にしてもよい。この場合、撮影した人がその時の自分の表情・気持ち等を再確認することに役立つ。また、表示制御部37は、上記各表示パターンを選択するための画面をディスプレイ318上に表示させ、利用者Aに選択を促すようにしてもよい。この場合、受付部32が、利用者Aの選択を受け付けて、表示制御部37が選択された表示パターンで表示する。
また、ステップS8(又はステップS18)の処理の前、処理の後、又は処理の前後において、表示制御部37は、リトルプラネット形式に変換して表示させてもよい。リトルプラネット形式では、全天球画像の全体像を表示できるため、所定領域Tの表示範囲外になっていた領域も含めて、最後に全体を確認できるという効果を奏する。
また、利用者Aが全天球撮影装置1を入手した直後は、Wi−FiやBluetoothの無線通信のための接続を確立するための設定や、図12、図16、又は図20の処理を実現するソフトウェアをスマートフォン3にインストールする作業が必要である。この作業の手間を省くために、以下のような処理で、全天球撮影装置1を入手した直後の設定の手間を軽減する。具体的には、全天球撮影装置1の記憶部1000に無線通信の接続設定と図12、図25、又は図29の処理を実現する特定のソフトウェアを予め記憶しておく。次に、全天球撮影装置1とスマートフォン3とをUSBケーブル等の有線ケーブルで接続し、スマートフォン3が全天球撮影装置1の記憶部1000にアクセスして、上記特定のソフトウェアを取得する。また、変形例として、ステップS6,S16では、全天球撮影装置1が広角画像データを直接スマートフォン3に送信しているが、この送信の前に全天球撮影装置1の記憶・読出処理部19が、広角画像データを記憶部1000に記憶しておくようにしてもよい。
また、第1の実施形態及び変形例における電子ファイルデータの記憶(ステップS7,S17)時に、スマートフォン3は第2の実施形態の画像管理サーバ5に同じ電子ファイルデータをアップロードして、画像管理サーバ5でデータのバックアップを行うようにしてもよい。
1 全天球撮影装置(広角撮影装置の一例)
3 スマートフォン(狭角撮影装置の一例、撮影装置の一例)
5 画像管理サーバ(画像管理装置の一例)
7 アクセスポイント
12 受付部
13 撮像部
14 集音部
15 判断部
16 画像処理部
19 記憶・読出処理部
31 送受信部
32 受付部(受付手段の一例)
33 撮像部
34 集音部
35 判断部
36 画像・音処理部
37 表示制御部(表示制御手段の一例)
38 通信部(取得手段の一例、要求手段の一例)
39 記憶・読出処理部
40 検出部(検出手段の一例)
51 送受信部
55 判断部
56 算出部
59 記憶・読出処理部
318 ディスプレイ(表示手段の一例)
1000 記憶部
3000 記憶部
5000 記憶部
特開2018−169601号公報

Claims (11)

  1. 撮影することによって得られた画像である第1の画像を表示するためのプログラムであって、
    コンピュータに、
    撮影することで前記第1の画像よりも広角な画像である第2の画像を得た広角撮影装置が送信した前記第2の画像のデータを取得する取得手段と、
    前記第1の画像の表示、及び前記第2の画像において前記第1の画像との類似度が所定の閾値以上である所定領域画像の表示を制御する表示制御手段と、
    を実現させることを特徴とするプログラム。
  2. 前記表示制御手段は、前記第2の画像において前記第1の画像との類似度が所定の閾値以上である複数の所定領域がある場合には、類似度の高い所定領域画像から順に前記複数の所定領域画像の表示を制御することを実現させる請求項1に記載のプログラム。
  3. 前記表示制御手段は、前記複数の所定領域画像を表示する場合には、前記第2の画像における前記複数の所定領域の間の所定領域画像の表示を制御することを実現させる請求項2に記載のプログラム。
  4. 前記表示制御手段は、前記第1の画像の表示、及び前記所定領域画像で表された被写体の全体に渡って前記所定領域を移動させることによる複数の所定領域画像の表示を制御することを実現させる請求項2に記載のプログラム。
  5. 前記所定領域画像で表された被写体は、顔の部分であることを特徴とする請求項4に記載のプログラム。
  6. 前記被写体の全体に渡って前記所定領域を移動させることは、前記被写体の足の部分から前記被写体の顔の部分に向かって、又は、前記被写体の顔の部分から前記被写体の足の部分に向かって、前記所定領域を移動させることである請求項4に記載のプログラム。
  7. 前記複数の所定領域画像のサムネイル画像の選択を受け付ける受付手段を有し、
    前記表示制御手段は、
    前記複数の所定領域画像のサムネイル画像のうち前記受付手段が選択を受け付けたサムネイル画像の表示を制御し、
    前記第1の画像の表示を制御した後、前記選択されたサムネイル画像に係る所定領域画像から順に前記複数の所定領域画像の表示を制御する
    ことを実現させる請求項1に記載のプログラム。
  8. 撮影することで得た画像である第1の画像を表示する撮影装置と、
    撮影することで前記第1の画像よりも広角な画像である第2の画像を得る広角撮影装置と、を有する画像通信システムであって、
    前記撮影装置は、
    前記広角撮影装置が送信した前記第2の画像のデータを取得する取得手段と、
    前記第1の画像の表示、及び前記第2の画像において前記第1の画像との類似度が所定の閾値以上である所定領域画像の表示を制御する表示制御手段と、を有する
    ことを特徴とする画像通信システム。
  9. 撮影することで得た画像である第1の画像を表示する撮影装置と、
    撮影することで前記第1の画像よりも広角な画像である第2の画像を得る広角撮影装置と、を有する画像通信システムが実行する表示方法であって、
    前記撮影装置は、
    前記広角撮影装置が送信した前記第2の画像のデータを取得する取得ステップと、
    前記第1の画像表示、及び前記第2の画像において前記第1の画像との類似度が所定の閾値以上である所定領域画像の表示を制御する表示制御ステップと、
    を含む処理を実行することを特徴とする表示方法。
  10. 撮影することで得た画像である第1の画像を表示する撮影装置が実行する表示方法であって、
    前記撮影装置は、
    撮影することで前記第1の画像よりも広角な画像である第2の画像を得た広角撮影装置が送信した前記第2の画像のデータを取得する取得ステップと、
    前記第1の画像の表示、及び前記第2の画像において前記第1の画像との類似度が所定の閾値以上である所定領域画像の表示を制御する表示制御ステップと、
    を含む処理を実行することを特徴とする表示方法。
  11. 第1の画像を撮影する撮影手段と、
    撮影することで前記第1の画像よりも広角な画像である第2の画像を得た広角撮影装置が送信した前記第2の画像のデータを取得する取得手段と、
    前記第1の画像の表示、及び前記第2の画像において前記第1の画像との類似度が所定の閾値以上である所定領域画像の表示を制御する表示制御手段と、
    を有することを特徴とする撮影装置。
JP2021008249A 2020-02-19 2021-01-21 プログラム、画像通信システム、表示方法及び撮影装置 Pending JP2021132370A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21156186.5A EP3869788A1 (en) 2020-02-19 2021-02-10 Image capturing device, image communication system, method for display control, and carrier means
CN202110189868.0A CN113286039A (zh) 2020-02-19 2021-02-18 图像显示装置、图像通信系统、图像显示方法及摄影装置
US17/178,265 US11700455B2 (en) 2020-02-19 2021-02-18 Image capturing device, image communication system, and method for display control

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020025870 2020-02-19
JP2020025870 2020-02-19

Publications (1)

Publication Number Publication Date
JP2021132370A true JP2021132370A (ja) 2021-09-09

Family

ID=77551308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021008249A Pending JP2021132370A (ja) 2020-02-19 2021-01-21 プログラム、画像通信システム、表示方法及び撮影装置

Country Status (1)

Country Link
JP (1) JP2021132370A (ja)

Similar Documents

Publication Publication Date Title
JP7322940B2 (ja) 画像通信システム、画像通信端末、画像通信方法、プログラム、及び記録媒体
JP6805861B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP5659304B2 (ja) 画像生成装置および画像生成方法
JP5659305B2 (ja) 画像生成装置および画像生成方法
JP5769813B2 (ja) 画像生成装置および画像生成方法
JP7095361B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP5865388B2 (ja) 画像生成装置および画像生成方法
JP2022179557A (ja) 通信端末、表示方法、プログラム及び画像通信システム
JP2014006880A (ja) 通信端末、表示方法、及びプログラム
JP2021039468A (ja) 撮影装置、通信システム、通信方法およびプログラム
CN109981944A (zh) 电子装置及其控制方法
JP6816465B2 (ja) 画像表示システム、通信システム、画像表示方法、及びプログラム
JP2019121224A (ja) プログラム、情報処理装置、及び情報処理方法
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP2016009873A (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2018056889A (ja) 表示端末、表示方法、及びプログラム
US11533430B2 (en) Image capturing device with display control, image communication system, and method for display control, and recording medium
JP2021132370A (ja) プログラム、画像通信システム、表示方法及び撮影装置
JP6812643B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
US11700455B2 (en) Image capturing device, image communication system, and method for display control
JP2017184025A (ja) 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
JP2022007898A (ja) プログラム、画像通信システム、表示方法、及び撮影装置
JP7358938B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP7006133B2 (ja) 通信システム及び通信方法
JP6992338B2 (ja) 通信システム、通信管理方法、プログラム、システム及び通信方法