JP6711118B2 - Image management system, program and information terminal - Google Patents
Image management system, program and information terminal Download PDFInfo
- Publication number
- JP6711118B2 JP6711118B2 JP2016092674A JP2016092674A JP6711118B2 JP 6711118 B2 JP6711118 B2 JP 6711118B2 JP 2016092674 A JP2016092674 A JP 2016092674A JP 2016092674 A JP2016092674 A JP 2016092674A JP 6711118 B2 JP6711118 B2 JP 6711118B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- omnidirectional image
- audio data
- display area
- omnidirectional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は画像管理システム、プログラム及び情報端末に関する。 The present invention relates to an image management system, a program and an information terminal.
例えば周囲360°の全方位を一度に撮像できる撮像装置がある。撮像装置が撮像により作成する全方位画像は全方位が写った画像である。このような全方位画像の所定領域に対して情報を付加できると便利である。 For example, there is an image pickup device capable of picking up images in all directions of 360 degrees around. The omnidirectional image created by the imaging device by imaging is an image in which all directions are captured. It would be convenient if information could be added to a predetermined area of such an omnidirectional image.
例えば全方位画像の所定領域画像に対するユーザのコメントを表示する技術は従来から知られている(例えば特許文献1参照)。 For example, a technique of displaying a user's comment on a predetermined area image of an omnidirectional image is conventionally known (see, for example, Patent Document 1).
全方位画像を撮像する撮像装置には、全方位画像を撮像する際に、音声を録音できるものもある。全方位画像を情報端末などで閲覧する場合は、全方位画像における表示領域を移動させることで全方位を閲覧できるが、閲覧している表示領域に応じた音声を出力できなかった。 Some imaging devices that capture an omnidirectional image can record sound when capturing an omnidirectional image. When viewing an omnidirectional image on an information terminal or the like, it is possible to view the omnidirectional image by moving the display area in the omnidirectional image, but it is not possible to output sound according to the display area being viewed.
本発明の一実施形態は、上記の点に鑑みなされたもので、全方位画像の表示領域に応じた音声を出力できる画像管理システムを提供することを目的とする。 An embodiment of the present invention has been made in view of the above points, and an object of the present invention is to provide an image management system capable of outputting sound according to a display area of an omnidirectional image.
上記目的を達成するため、本願請求項1は、撮像装置が撮像した全方位画像を管理する画像管理装置と、前記全方位画像の表示領域を表示する情報端末と、を有する画像管理システムであって、前記全方位画像の撮像時に前記撮像装置において録音された複数方向からの音声データを、前記撮像装置で撮像される全方位画像上の位置と対応付ける対応付け手段と、前記情報端末において立体球に貼り付けることで作成された前記全方位画像上の表示領域を表示する表示手段と、前記全方位画像の撮像時に前記撮像装置において録音された複数方向からの音声データのうち、表示する前記全方位画像上の少なくとも画角と座標で示される表示領域と、前記複数方向からの音声データに対応付けられた前記全方位画像上の位置と、に基づき、前記音声データを選択して再生する音声再生手段と、を有し、前記音声再生手段は、画角により前記全方位画像上の表示領域の拡大縮小を操作し、当該操作に応じて再生する前記音声データの音量を制御することを特徴とする。
In order to achieve the above object,
本発明の一実施形態によれば、全方位画像の表示領域に応じた音声を出力できる。 According to the embodiment of the present invention, it is possible to output a sound corresponding to the display area of the omnidirectional image.
以下、本発明を実施するための形態について図面を参照しながら説明する。
[第1の実施形態]
<用語について>
視点とは閲覧者の視線が注がれる場所を言う。本実施形態では、全方位画像の全体のうち閲覧者がディスプレイに表示させた一部の画像を便宜的に視点という場合がある。この一部の画像を所定領域画像という。全方位画像における所定領域画像を特定するための情報を所定領域情報という。
Hereinafter, modes for carrying out the present invention will be described with reference to the drawings.
[First Embodiment]
<About terms>
A viewpoint is a place where a viewer's gaze is focused. In the present embodiment, a part of the entire omnidirectional image displayed by the viewer on the display may be referred to as a viewpoint for convenience. This part of the image is called a predetermined area image. The information for specifying the predetermined area image in the omnidirectional image is called predetermined area information.
全方位画像は、周囲360°の全方位が撮像された画像であり、全天球画像、パノラマ画像、全天球パノラマ画像など、どのように呼ばれていてもよい。また、周囲360°の画像の一部が画像処理などの関係で欠けていても本実施形態の説明に支障がない場合は全方位画像と称する。 The omnidirectional image is an image in which all azimuths around 360° are captured, and may be referred to as an omnidirectional image, a panoramic image, an omnidirectional panoramic image, or the like. Further, if a part of the image of 360 degrees around is missing due to image processing or the like, it will be referred to as an omnidirectional image if it does not hinder the description of the present embodiment.
<撮像装置について>
ここでは図1〜図7を用いて、周囲360°の全方位を撮像可能な撮像装置について説明する。図1は撮像装置1の外観を説明する図の一例である。図1(a)は撮像装置1の左側面図であり、図1(b)は撮像装置1の正面図であり、図1(c)は撮像装置1の平面図である。
<About imaging device>
Here, an image pickup apparatus capable of picking up images in all directions around 360° will be described with reference to FIGS. 1 to 7. FIG. 1 is an example of a diagram for explaining the external appearance of the
図1(a)に示されているように、撮像装置1は、人間が片手で持つことができる大きさである。また、図1(a),図1(b)及び図1(c)に示されているように、撮像装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。また、図1(b)に示されているように、撮像装置1の正面側には、シャッターボタン等の操作部115が設けられている。
As shown in FIG. 1A, the
次に、図2を用いて、撮像装置1の使用状況を説明する。なお、図2は、撮像装置の使用イメージ図である。撮像装置1は、図2に示されているように、ユーザが手に持って周りの被写体を撮影するために用いられる。この場合、撮像装置1は図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体を撮像することで、2つの半球画像を得ることができる。
Next, the usage status of the
次に、図3を用いて、撮像装置1で撮像された画像及び合成された画像を説明する。なお、図3(a)は撮像装置で撮像された半球画像(前側)、図3(b)は撮像装置で撮像された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。なお、正距円筒図法で表されてもよい。
Next, an image captured by the
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮像装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。
As shown in FIG. 3A, the image obtained by the
図4は、図3(c)に示されている撮像画像(メルカトル画像)から、作成された全方位画像を示す。例えば、図4のような全方位画像は、立体球に図3(c)に示されるメルカトル画像を貼り付けることで作成される。 FIG. 4 shows an omnidirectional image created from the captured image (Mercatl image) shown in FIG. For example, an omnidirectional image as shown in FIG. 4 is created by pasting the Mercator image shown in FIG. 3C on a solid sphere.
図5〜図7を用いて、全方位画像における所定領域の画像(これが上記の「所定領域画像」である)の作成及び表示の処理について説明する。なお、図5は、全方位画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、3次元の立体球として表示されている全方位画像に対して、その画像を見るユーザの視点の位置に相当するものである。 Processing for creating and displaying an image of a predetermined area (this is the above-mentioned “predetermined area image”) in an omnidirectional image will be described with reference to FIGS. 5 to 7. Note that FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the omnidirectional image displayed as a three-dimensional solid sphere.
また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された所定領域画像を示す図である。図6(a)は図4に示されている全方位画像を3次元の立体球CSで見せている。このように生成された全方位画像の立体球CSであるとすると、図5に示されているように、仮想カメラICは全方位画像の中心に位置し、この中心から上下左右の回転と、この中心からの視点での回転(ROLL)の3軸の回転を行うことができる。 Further, FIG. 6A is a stereoscopic perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image displayed on the display. FIG. 6A shows the omnidirectional image shown in FIG. 4 with a three-dimensional solid sphere CS. Assuming that it is the three-dimensional sphere CS of the omnidirectional image generated in this way, the virtual camera IC is located at the center of the omnidirectional image, as shown in FIG. It is possible to rotate the three axes of rotation (ROLL) from the viewpoint from this center.
この全方位画像における所定領域Tは、この全方位画像における仮想カメラICの位置の所定領域情報によって特定される。この所定領域情報は、座標x(rH)、座標y(rV)、及び画角α(angle)によって示される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。すなわち、座標x、座標yで図7の中心点CPを特定でき、画角αで所定領域画像の広さを特定できる。座標x、座標yは全方位画像の例えば、左上コーナーを原点とする座標である。 The predetermined area T in this omnidirectional image is specified by the predetermined area information of the position of the virtual camera IC in this omnidirectional image. This predetermined area information is indicated by coordinates x(rH), coordinates y(rV), and angle of view α(angle). The zoom of the predetermined area T can be expressed by expanding or contracting the range (arc) of the angle of view α. That is, the center point CP of FIG. 7 can be specified by the coordinates x and the coordinates y, and the width of the predetermined area image can be specified by the angle of view α. Coordinates x and y are coordinates with the upper left corner of the omnidirectional image as the origin, for example.
図7を用いて、所定領域情報と所定領域画像の関係について説明する。図7は、所定領域情報と所定領域画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角線画角2Lとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。(x,y)は中心点CPでなく所定領域画像の左上コーナーなどの座標でもよい。 The relationship between the predetermined area information and the predetermined area image will be described with reference to FIG. 7. FIG. 7 is a diagram showing a relationship between predetermined area information and a predetermined area image. As shown in FIG. 7, the center point CP when the diagonal line angle of view 2L of the predetermined area T represented by the angle of view α of the virtual camera IC is the (x, y) parameter of the predetermined area information. .. (X, y) may be coordinates such as the upper left corner of the predetermined area image instead of the center point CP.
なお、fは仮想カメラICから中心点CPまでの距離である。そして、図7では、一般的に以下の式(1)で示される関係が成り立つ。Lは所定領域画像の対角線の長さの半分である。 Note that f is the distance from the virtual camera IC to the center point CP. Then, in FIG. 7, the relationship represented by the following expression (1) is generally established. L is half the length of the diagonal line of the predetermined area image.
Lf=tan(α/2)・・・式(1)
所定領域画像のアスペクト比で対角線と下辺のなす角βが分かるので、所定領域画像の各コーナーの座標も算出できる。例えば、左上コーナーのx座標はx−Lcosβ、y座標はy+Lsinβである。
Lf=tan(α/2)...Equation (1)
Since the angle β formed by the diagonal and the lower side can be known from the aspect ratio of the predetermined area image, the coordinates of each corner of the predetermined area image can also be calculated. For example, the x coordinate of the upper left corner is x-Lcosβ, and the y coordinate is y+Lsinβ.
<画像管理システム200の構成>
図8は、画像管理システム200の概略構成図の一例である。画像管理システム200は、通信ネットワーク9を介して接続された撮像装置1、通信端末3、画像管理装置5及び情報端末7を有している。撮像装置1は撮影者Xにより操作される。情報端末7は閲覧者Yにより操作される。
<Structure of
FIG. 8 is an example of a schematic configuration diagram of the
通信ネットワーク9は、閲覧者Yの所属先の企業のLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等の少なくとも1つを含んで構築されている。撮像装置1、通信端末3又は情報端末7はLANを介さずに直接、回線電話網や携帯電話網に接続してもよい。
The communication network 9 is constructed to include at least one of a LAN of a company to which the viewer Y belongs, a provider network of a provider connecting the LAN to the Internet, and a line provided by a line carrier. The
通信ネットワーク9にはWANやインターネット等が含まれる。通信ネットワーク9は有線又は無線のどちらで構築されてもよく、また、有線と無線とが組み合わされていてもよい。 The communication network 9 includes WAN, Internet, and the like. The communication network 9 may be constructed by either wired or wireless, or may be a combination of wired and wireless.
撮像装置1は、上記のように1度の撮像で周囲360度を撮像し、全方位画像を作成するカメラである。撮像装置1はデジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3が全方位画像を得るためのデジタルカメラとなりうる。さらに、情報端末7にカメラが付いている場合は情報端末7が全方位画像を得るためのデジタルカメラとなりうる。
The
本実施形態では、説明を分かりやすくするために撮像装置1が全方位画像を得るためのデジタルカメラとして説明を行う。撮像装置1は周囲360を撮像し、全方位画像を得ると共に、指向性マイクなどにより録音した複数方向の音声データを得る。撮像装置1は定期的又は不定期に撮像してもよいし、撮影者Xの操作により撮像してもよいし、閲覧者Yによる画像管理装置5からの命令で撮像してもよい。なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全方位画像を作成してもよい。
In the present embodiment, the
通信端末3は、例えばクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有する。これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。また、通信端末3は無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。
The
また、情報端末7は撮像装置1と接続するためのインタフェースを有する。これにより撮像装置1は情報端末7の機能を利用できる。情報端末7は、このインタフェースを介して撮像装置1とデータ通信を行なう。また、情報端末7は無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。
Further, the information terminal 7 has an interface for connecting to the
撮像装置1は無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3又は情報端末7を介さず、無線ルータ9aや通信ネットワーク9と通信を行う。撮像装置1は通信端末3又は情報端末7と一体に構成されていてもよい。
When the
画像管理装置5は、例えば、サーバとして機能する情報処理装置である。画像管理装置5は、撮像装置1からの静止画及び動画を受信する機能、情報端末7に全方位画像を表示させる機能、全方位画像の座標に音声データを対応付ける機能、を有する。
The
画像管理装置5は、通信ネットワーク9を介して、撮像装置1、通信端末3又は情報端末7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことでメルカトル画像から全方位画像を作成したり、全方位画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。
The
なお、画像管理装置5は、クラウドコンピューティングが適用されていることが好ましい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。
The
また、クラウドコンピューティングでは、画像管理装置5が仮想化されることが一般的である。1台の情報処理装置が仮想化によって複数の画像管理装置5としての機能を提供することや、複数の情報処理装置が仮想化によって一台の画像管理装置5としての機能を提供することができる。なお、画像管理装置5がクラウドコンピューティングとしてではなく単独の情報処理装置により提供されることも可能である。
In cloud computing, the
情報端末7は、例えばノートPC(Personal Computer)であり、通信ネットワーク9を介して画像管理装置5とデータ通信を行う。情報端末7は、ノートPCの他、タブレット端末、PC、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。また、これらに限られるものではない。情報端末7は、全方位画像の表示領域を表示する機能、表示している全方位画像の表示領域に対応する音声データを選択して再生する機能を有する。
The information terminal 7 is, for example, a notebook PC (Personal Computer), and performs data communication with the
本実施形態に係る画像管理システム200では、撮像装置1が全方位画像を撮像すると共に、複数方向の音声データを録音する。録音した音声データは、後述のように、全方位画像における座標と対応付けられる。撮像した全方位画像と録音した音声データとは撮像装置1から画像管理装置5に送信され、画像管理装置5に保存される。
In the
閲覧者Yの操作する情報端末7から閲覧要求があると、画像管理装置5は閲覧者Yの操作する情報端末7が全方位画像の表示領域を表示し、その表示領域に対応する音声を再生するための画面情報を配信する。
When there is a browsing request from the information terminal 7 operated by the viewer Y, the
<実施形態のハードウェア構成>
次に、図9〜図11を用いて、本実施形態の撮像装置1、通信端末3,画像管理装置5及び情報端末7のハードウェア構成を説明する。
<Hardware configuration of the embodiment>
Next, the hardware configurations of the
<<撮像装置>>
図9は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位撮像装置とするが、3つ以上の撮像素子を使用した全方位撮像装置としてもよい。また、撮像装置1は必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
<<Imaging device>>
FIG. 9 is an example of a hardware configuration diagram of the
図9に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、複数のマイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118及び加速度センサー119によって構成されている。
As illustrated in FIG. 9, the
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。
Of these, the
撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサーやCCD(Charge Coupled Device)センサーなどの画像センサーを有している。また、撮像素子103a,103bは、画像センサーの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
The
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105と、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、電子コンパス118及び加速度センサー119なども接続される。
The
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込む。そして、画像処理ユニット104は、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、例えば図3(c)に示されているようなメルカトル画像のデータを作成する。
The
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
The image
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。なお、撮像装置1は、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を有している場合もある。この場合、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
The
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。
Further, the image
複数のマイク108には、特定の方向の音を捉えやすい性質を持っている単一指向性や超指向性などの指向性マイクを利用する。複数のマイク108は例えば図1に示した撮像装置1の正面側、背面側、左側面側、右側面側、上部側、下部側からの音を捉えやすい位置にそれぞれ配置される。マイク108は捉えた音を音(信号)データに変換する。音処理ユニット109は、複数のマイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
As the plurality of
CPU111は撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
The
操作部115は、操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータ等とのインタフェース回路(USBI/F等)の総称である。
The
また、ネットワークI/F116は無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、通信端末3等の外部装置に送信されたりする。
The network I/
通信部117は、撮像装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
The
電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出して、方位・傾き情報を出力する。この方位・傾き情報は、Exifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。加速度センサー119は撮像装置1の運動による動きの変化や重力による運動の変化を計測することで、撮像装置1の傾きを算出し、出力する。
The
<<通信端末>>
次に、図10を用いて、通信端末3のハードウェア構成を説明する。図10は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
<< communication terminal >>
Next, the hardware configuration of the
図10に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi-fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。
As shown in FIG. 10, the
また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、通信部305は、アンテナ305aを利用して無線通信信号により、無線ルータ9a等と通信を行う。
Further, a
図示する他、通信端末3はGPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。
In addition to the figures, the
<<画像管理装置、情報端末>>
図11を用いて、画像管理装置5及び情報端末7のハードウェア構成例を説明する。図11は画像管理装置5及び情報端末7のハードウェア構成図である。図11は、情報端末7がノートPCの場合を示している。なお、画像管理装置5及び情報端末7は、ともにコンピュータである。そこで、以下では、画像管理装置5の構成について説明する。情報端末7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し、支障がないものとする。
<<Image management device, information terminal>>
An example of the hardware configuration of the
画像管理装置5は画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5は画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。
The
また、画像管理装置5はフラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、画像管理装置5は通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。
The
また、画像管理装置5は、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、画像管理装置5は、上記各構成要素を図11に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
The
<画像管理システム200の機能について>
ここでは、本実施形態の画像管理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロックについて説明する。
<About the function of the
Here, each functional block of the
<<撮像装置1の機能構成>>
図12は撮像装置の一例の機能ブロック図である。撮像装置1は、受付部12、撮像部13、集音部14、接続部15、記憶・読出部19、記憶部1000を有している。記憶部1000には撮像装置1用のプログラム及び各種データが記憶されている。
<<Functional configuration of the
FIG. 12 is a functional block diagram of an example of the image pickup apparatus. The
受付部12はユーザ(図8では、撮影者X)からの操作入力を受け付ける。なお、撮像装置1は撮影者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像するようにしてもよい。また、撮像装置1は閲覧者Yによる画像管理装置5を介した操作入力を受け付けてもよい。
The
撮像部13は、全方位画像を撮像する。集音部14は複数の指向性マイクにより撮像装置1の周囲(各方向)の音を収音し、音データに変換する。接続部15は、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。また、記憶・読出部19は記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。
The
<<通信端末3の機能構成>>
図13は通信端末の一例の機能ブロック図である。通信端末3は、送受信部31、受付部32、接続部33、記憶・読出部39及び記憶部3000を有している。送受信部31は無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。
<<Functional configuration of
FIG. 13 is a functional block diagram of an example of a communication terminal. The
受付部32はユーザからの操作入力を受け付ける。接続部33は撮像装置1に電力供給すると共に、データ通信を行う。記憶部3000は各種データを記憶する。記憶・読出部39は記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。
The
<<画像管理装置5の機能構成>>
図14は画像管理装置の一例の機能ブロック図である。図14の画像管理装置5は、送受信部51、人物検出部52、サムネイル作成部53、画面作成部54、音声付加部55及び記憶・読出部59を有している。
<<Functional configuration of the
FIG. 14 is a functional block diagram of an example of the image management device. The
また、画像管理装置5は記憶部5000を有している。この記憶部5000には、拠点管理DB、解析情報管理DB、撮像管理DB、画像管理DB、サムネイル管理DB、全方位画像などの画像データ、音声データを保存している。
The
送受信部51は通信ネットワーク9を介して通信端末3又は情報端末7と各種データの送受信を行う。人物検出部52は、画像データから人物を検出する。この人物の検出は適切な特徴量の設定と、学習識別装置の設定により行われる。例えば、特徴量としては、Haar-like特徴、LBP(Local Binary Patterns)特徴、HOG(Histogram of Oriented Gradients)特徴などが知られている。また、学習識別装置としては、SVM(Support Vector Machines)、AdaBoostを用いたカスケード分類などが知られている。ただし、これらに限られるものではなく人を検出できればよい。
The transmission/
サムネイル作成部53は、所定領域画像のサムネイル画像を作成する。画面作成部54は情報端末7からの要求に応じて画面情報を生成する機能、生成した画面情報を配信する機能を有する。画面情報は、情報端末7が画面を表示するためのコンテンツである。例えば情報端末7のWebブラウザからアクセスがあった場合、画面作成部54は記憶部5000にアクセスし、コンテンツを動的に生成して、Webブラウザに返す。生成されるコンテンツは、HTML、CSSやJavaScript(登録商標)などである。コンテンツを返されたWebブラウザはコンテンツを処理して画面をレンダリングする。
The thumbnail creating unit 53 creates a thumbnail image of a predetermined area image. The
また、音声付加部55は全方位画像の画像位置(座標)に複数方向の音声データを対応付ける。記憶・読出部59は、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。
Further, the
<<情報端末7の機能構成>>
図15は情報端末の一例の機能ブロック図である。情報端末7は、送受信部71、受付部72、表示制御部73、表示部74、音声再生部75、記憶・読出部79及び記憶部7000を有している。記憶部7000は各種データを記憶する。
<<Functional configuration of information terminal 7>>
FIG. 15 is a functional block diagram of an example of the information terminal. The information terminal 7 includes a transmission/
送受信部71は、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。受付部72はユーザ(図8では、閲覧者Y)からの操作入力を受け付ける。表示制御部73は画像管理装置5から送信されたコンテンツ(画面情報)を解釈して情報端末7のディスプレイ508に各種画面を表示させるための制御を行なう。
The transmission/
表示部74はディスプレイ508に各種画面を表示させる。音声再生部75は表示されている全方位画像の表示領域に応じた音声データを後述のように選択し、再生する。音声再生部75は、全方位画像の表示領域に応じた音声データの音量を後述するように制御してもよい。音声追従制御部57は、音声データの音量に応じて全方位画像の表示領域を後述のように切り替えてもよい。また、記憶・読出部79は記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。
The
<情報端末7に表示される画面例>
図16は画像管理装置にアクセスした情報端末に表示される画面の一例について説明する図である。図16(a)は図3(c)のメルカトル画像であり、全方位画像の全体を表している。情報端末7は全方位画像の表示領域が表示された図16(b)に示す表示画面を表示する。このように、情報端末7には全方位画像の一部分である表示領域が画面に表示されることになる。
<Example of screen displayed on information terminal 7>
FIG. 16 is a diagram illustrating an example of a screen displayed on the information terminal that has accessed the image management device. FIG. 16A is the Mercator image of FIG. 3C and shows the entire omnidirectional image. The information terminal 7 displays the display screen shown in FIG. 16B in which the display area of the omnidirectional image is displayed. In this way, the display area, which is a part of the omnidirectional image, is displayed on the screen of the information terminal 7.
本実施形態に係る画像管理システム200では、撮像装置1においてマイク108で録音した複数方向の音声データを、図17のように、全方位画像の座標(画像位置)と対応付けておく。図17は、全方位画像の座標(画像位置)と対応付けられている複数方向の音声データを示した説明図である。
In the
なお、図17は複数のマイク108で録音した方向が6つである例を示している。図17は理解を容易とするために、音声データが対応付けられている座標を「×」で示しているが、表示しなくてもよい。また、例えば全方位画像の座標(画像位置)と複数方向の音声データとの対応付けは例えば図18に示すような対応表により設定しておく。
Note that FIG. 17 shows an example in which the directions recorded by the plurality of
図18は全方位画像の座標(画像位置)と複数方向の音声データとを対応付ける対応表の一例の構成図である。なお、図18の対応表は、撮像装置1の撮像ユニット101により撮像される全方位画像と、撮像装置1に配置されたマイク108の指向性の方向とに基づき、予め設定しておき、撮像装置1の記憶部1000などに保存しておく。例えば撮像装置1は全方位画像や音声データを画像管理装置5に送信する際、図18の対応表も画像管理装置5に送信しておく。また、図18では全方位画像の座標(画像位置)を二次元座標で表しているが、図5に示したような全方位画像を3次元の立体球とし、三次元座標で表すようにしてもよい。
FIG. 18 is a block diagram of an example of a correspondence table that associates the coordinates (image positions) of the omnidirectional image with the audio data in a plurality of directions. The correspondence table of FIG. 18 is set in advance based on the omnidirectional image captured by the
情報端末7のWebブラウザからアクセスがあった場合、画像管理装置5の画面作成部54は、情報端末7が例えば図16(b)のような画面を表示するための画面情報を生成する。また、画像管理装置5の音声付加部55は、図18の対応表により、全方位画像の画像位置(座標)に複数方向の音声データを対応付ける。
When there is access from the Web browser of the information terminal 7, the
情報端末7のWebブラウザは画像管理装置5からの画面情報及び図18の対応表に基づいて全方位画像の初期表示領域を表示し、その初期表示領域に含まれる座標と対応付けられている音声データを再生する。図17の例では、表示領域に「方向4音声に対応付けられた座標」が含まれるため、方向4音声の音声データが選択される。なお、選択される音声データは、図18の対応表の画像位置(座標)が、表示領域の中心の座標に一番近いものであってもよい。
The Web browser of the information terminal 7 displays the initial display area of the omnidirectional image based on the screen information from the
図19は情報端末において複数方向の音声から一方向の音声を選択して再生する処理の一例のフローチャートである。情報端末7の表示制御部73は、例えば閲覧者Yから全方位画像の表示が要求されると、ステップS11からステップS12に進む。ステップS12において、表示制御部73は画像管理装置5から送信された画面情報により全方位画像の初期表示領域を表示する。
FIG. 19 is a flowchart of an example of a process of selecting and playing back one-direction audio from a plurality of directions of audio in the information terminal. For example, when the viewer Y requests the display of the omnidirectional image, the
また、音声再生部75は初期表示領域に対応する音声データを選択し、再生する。ここで言う「初期表示領域に対応する音声データ」とは、図18の対応表の画像位置が、初期表示領域の中心の座標に一番近い音声データとする。なお、一番近い音声データが複数ある場合、音声再生部75は例えば単位時間あたりの音量が大きい方を選択するようにしてもよい。なお、ステップS12において、全方位画像と音声とは記録時間で同期して再生される。このように、本実施形態によれば、閲覧者Yは全方位画像が撮像された場所で表示領域の方向を見て立っているかのような臨場感のある体験ができる。
Further, the
例えば閲覧者Yから全方位画像の表示領域を図20のように動かす操作を受け付けると情報端末7はステップS13からステップS14に進む。ステップS14において表示制御部73は表示されていた全方位画像の初期表示領域を図20のように移動させる。情報端末7は例えば閲覧者Yから全方位画像の表示終了が要求されるまでステップS13〜S15の処理を繰り返す。
For example, when the operation of moving the display area of the omnidirectional image as shown in FIG. 20 is accepted from the viewer Y, the information terminal 7 proceeds from step S13 to step S14. In step S14, the
図20は全方位画像の表示領域が動かされた場合に、再生される音声データが切り替わる様子を示した説明図である。音声再生部75は移動後の表示領域に対応する音声データを選択し、再生する。図20の例では移動後の表示領域の中心の座標に、図18の対応表の画像位置が一番近い音声データである「方向3音声」の音声データが選択される。このように、本実施形態によれば、閲覧者Yは全方位画像が撮像された場所で顔の向きを変えたような臨場感のある体験ができる。
FIG. 20 is an explanatory diagram showing a state in which reproduced audio data is switched when the display area of the omnidirectional image is moved. The
また、情報端末7は図21に示すように、閲覧者Yから全方位画像の表示領域を拡大縮小する操作を受け付ける。図21は全方位画像の表示領域が拡大される様子を示した説明図である。 In addition, as shown in FIG. 21, the information terminal 7 accepts an operation for enlarging or reducing the display area of the omnidirectional image from the viewer Y. FIG. 21 is an explanatory diagram showing a state in which the display area of the omnidirectional image is enlarged.
ここで言う「表示領域の拡大」は、いわゆるズームアップのことであり、画像を拡大する意味である。表示領域の拡大により、情報端末7の音声再生部75は再生する音声の音量を大きくする。また「表示領域の縮小」は、いわゆるズームバックのことであり、画像を縮小する意味である。表示領域の縮小により、情報端末7の音声再生部75は再生する音声の音量を小さくする。
The “enlargement of the display area” here is so-called zoom-up, and means enlarging the image. By expanding the display area, the
図22は情報端末において表示領域の拡大縮小により再生する音声の音量を制御する処理の一例のフローチャートである。情報端末7の表示制御部73は、例えば閲覧者Yから全方位画像の表示が要求されると、ステップS21からステップS22に進む。ステップS22において、表示制御部73は画像管理装置5から送信された画面情報により全方位画像の初期表示領域を等倍で表示する。また、音声再生部75は初期表示領域に対応する音声データを選択し、標準音量で再生する。
FIG. 22 is a flowchart of an example of a process of controlling the volume of a sound reproduced by scaling the display area in the information terminal. For example, when the viewer Y requests the display of the omnidirectional image, the
例えば閲覧者Yから全方位画像の表示領域を図20のように動かす操作を受け付けると情報端末7はステップS23からステップS24に進む。ステップS24において表示制御部73は表示されていた全方位画像の初期表示領域を図20のように移動させる。音声再生部75は移動後の表示領域に対応する音声データを選択し、再生する。
For example, when the operation of moving the display area of the omnidirectional image as shown in FIG. 20 is accepted from the viewer Y, the information terminal 7 proceeds from step S23 to step S24. In step S24, the
一方、閲覧者Yから全方位画像の表示領域を図20のように動かす操作を受け付けなければ情報端末7はステップS23からステップS25に進む。ステップS25において表示制御部73は閲覧者Yから全方位画像の表示領域を拡大縮小する操作を受け付けたか否かを判定する。
On the other hand, if the operation of moving the display area of the omnidirectional image as shown in FIG. 20 is not accepted from the viewer Y, the information terminal 7 proceeds from step S23 to step S25. In step S25, the
全方位画像の表示領域を拡大縮小する操作を受け付けたと判定すると、情報端末7の音声再生部75はステップS26に進み、表示領域の拡大縮小により再生する音声の音量を制御する。例えば音声再生部75は表示領域が最大限に拡大された状態である場合に最大音量、表示領域が最小限に縮小された状態である場合に最小音量、表示領域が等倍の状態である場合に標準音量とする。
When it is determined that the operation for enlarging or reducing the display area of the omnidirectional image is received, the
ステップS23〜S26の処理は例えば閲覧者Yから全方位画像の表示終了が要求されるまで繰り返される。なお、全方位画像の表示領域の拡大縮小の上限は、画面の仕様に従えばよい。このように、本実施形態によれば、閲覧者Yは全方位画像が撮像された場所にいて、表示領域に表示されている物体に近づいたり離れたりするような臨場感のある体験ができる。
[第2の実施形態]
第1の実施形態は、表示している全方位画像の表示領域に対応する音声を選択して再生していた。第2の実施形態は、より大きい音量で録音されている音声データの方向に、全方位画像の表示領域を自動的に切り替えるものである。
The processing of steps S23 to S26 is repeated until, for example, the viewer Y requests the display end of the omnidirectional image. The upper limit of enlargement/reduction of the display area of the omnidirectional image may be in accordance with the screen specifications. As described above, according to the present embodiment, the viewer Y can have a realistic experience of approaching or moving away from the object displayed in the display area at the place where the omnidirectional image is captured.
[Second Embodiment]
In the first embodiment, the sound corresponding to the display area of the displayed omnidirectional image is selected and reproduced. The second embodiment automatically switches the display area of the omnidirectional image in the direction of the audio data recorded at a higher volume.
図23は、情報端末において大きい音量で録音されている音声データの方向に、全方位画像の表示領域を切り替える処理の一例のフローチャートである。情報端末7の表示制御部73は、例えば閲覧者Yから全方位画像の表示が要求されると、ステップS31からステップS32に進む。ステップS32において、表示制御部73は画像管理装置5から送信された複数方向の音声データを参照し、どの時間に、どの音声データと表示領域とを選択するかを示す図24のようなテーブルを作成する。
FIG. 23 is a flowchart of an example of a process of switching the display area of the omnidirectional image in the direction of the audio data recorded at a high volume in the information terminal. For example, when the viewer Y requests the display of the omnidirectional image, the
図24はステップS32においてテーブルを作成する処理の説明図である。図24は4方向の音声データである例を示している。図24(a)は4方向の音声データの時間tごとの音量レベルを表している。また、図24(b)はステップS32で作成されるテーブルの一例を表している。 FIG. 24 is an explanatory diagram of the process of creating a table in step S32. FIG. 24 shows an example of four-direction audio data. FIG. 24A shows the volume level of the audio data in four directions for each time t. Further, FIG. 24B shows an example of the table created in step S32.
表示制御部73は図24(a)に示したように所定時間ごとに音量レベルの平均が最も大きい音声データの方向を選択し、図24(b)に示すようなテーブルを作成する。図24(b)は所定時間ごとに音量レベルの平均が最も大きい音声データの方向を表した一例のテーブルである。
The
図23のステップS33に進み、表示制御部73は図24(b)のテーブルに表された所定時間ごとの音声データの方向に基づき、その音声データと対応付けられた座標を中心とする全方位画像の表示領域を表示し、その音声データを再生する。ステップS33の処理は例えば閲覧者Yから全方位画像の表示終了が要求されるまで繰り返される。
In step S33 of FIG. 23, the
なお、より大きい音量で録音されている音声データの方向に、全方位画像の表示領域を自動的に切り替える処理(以下、自動音声追従処理という)は、例えば図25に示すようにオン、オフできるようにしてもよい。 Note that the process of automatically switching the display area of the omnidirectional image in the direction of the audio data recorded at a higher volume (hereinafter referred to as the automatic audio tracking process) can be turned on and off as shown in FIG. 25, for example. You may do it.
図25は自動音声追従処理のオン、オフ操作を閲覧者Yから受け付ける表示画面の一例のイメージ図である。図25(b)に示すように、情報端末7を操作する閲覧者Yは表示画面から自動音声追従処理のオン、オフを設定できる。 FIG. 25 is an image diagram of an example of a display screen for accepting the on/off operation of the automatic voice tracking process from the viewer Y. As shown in FIG. 25B, the viewer Y who operates the information terminal 7 can set ON/OFF of the automatic voice tracking process from the display screen.
図26は自動音声追従処理がオンである場合に、自動音声追従処理を行う一例のフローチャートである。情報端末7の表示制御部73は、例えば閲覧者Yから全方位画像の表示が要求されると、ステップS41からステップS42に進む。
FIG. 26 is a flowchart of an example of performing the automatic voice following process when the automatic voice following process is ON. When the viewer Y requests the display of the omnidirectional image, the
ステップS42において、表示制御部73は自動音声追従処理の設定がオン(ON)であるか否かを判定する。自動音声追従処理の設定がオンであれば、表示制御部73は図23に示したステップS32〜S33と同様な処理であるステップS43〜S44の処理を行う。
In step S42, the
自動音声追従処理の設定がオンでなければ、ステップS45において、表示制御部73は画像管理装置5から送信された画面情報により全方位画像の初期表示領域を等倍で表示する。また、音声再生部75は初期表示領域に対応する音声データを選択し、標準音量で再生する。
If the setting of the automatic voice tracking process is not on, the
例えば閲覧者Yから全方位画像の表示領域を図20のように動かす操作を受け付けると情報端末7はステップS45からステップS46に進む。ステップS46において表示制御部73は、表示していた全方位画像の初期表示領域が動かされると、ステップS47に進む。
For example, when the operation of moving the display area of the omnidirectional image as shown in FIG. 20 is accepted from the viewer Y, the information terminal 7 proceeds from step S45 to step S46. In step S46, the
ステップS47において、音声再生部75は移動後の表示領域に対応する音声データを選択し、再生する。ステップS42〜S47の処理は例えば閲覧者Yから全方位画像の表示終了が要求されるまで繰り返される。
In step S47, the
本実施形態によれば、閲覧者Yが音のしている方向を注視したい場合に、音のしている方向の表示領域に自動で表示が切り替えられる。また、音のしている方向の表示領域に自動で表示が切り替えられる機能は設定によりオン/オフできる。したがって、閲覧者Yは音のしている方向を注視しなくてもよい場合など、利用状況に合わせて機能をオン/オフできる。
[第3の実施形態]
第3の実施形態は、全方位画像の表示領域の中心と、図18の対応表により音声データと対応付けられている全方位画像の座標(画像位置)との距離により、再生する音声の音量を制御するものである。
According to the present embodiment, when the viewer Y wants to gaze at the direction in which the sound is made, the display is automatically switched to the display area in the direction in which the sound is made. Also, the function of automatically switching the display to the display area in the direction of the sound can be turned on/off by setting. Therefore, the viewer Y can turn on/off the function according to the usage situation, such as when the viewer Y does not have to pay attention to the direction of the sound.
[Third Embodiment]
In the third embodiment, the volume of the sound to be reproduced is determined by the distance between the center of the display area of the omnidirectional image and the coordinates (image position) of the omnidirectional image associated with the audio data in the correspondence table of FIG. Is to control.
図27は情報端末において全方位画像の表示領域の中心と、音声データと対応付けられている全方位画像の座標(画像位置)との距離により、再生する音声の音量を制御する処理の一例のフローチャートである。 FIG. 27 shows an example of a process of controlling the volume of a reproduced sound by the distance between the center of the display area of the omnidirectional image and the coordinates (image position) of the omnidirectional image associated with the audio data in the information terminal. It is a flowchart.
ステップS51〜S53の処理は図19のステップS11〜S13と同様である。例えば閲覧者Yから全方位画像の表示領域を図20のように動かす操作を受け付けると情報端末7はステップS53からステップS54に進む。ステップS54において表示制御部73は表示されていた全方位画像の初期表示領域を図20のように移動させる。
The processes of steps S51 to S53 are the same as steps S11 to S13 of FIG. For example, when the operation of moving the display area of the omnidirectional image as shown in FIG. 20 is accepted from the viewer Y, the information terminal 7 proceeds from step S53 to step S54. In step S54, the
ステップS55に進み、音声再生部75は移動後の表示領域の中心の座標に、図18の対応表の画像位置が一番近い音声データを選択される。ステップS56に進み、音声再生部75は移動後の表示領域の中心の座標と、ステップS55で選択した音声データの画像位置との距離により、再生する音声の音量を決定する。例えば音声再生部75は距離が近い(短い)ほど音量を大きくする。また、音声再生部75は距離が遠い(長い)ほど音量を小さくする。
In step S55, the
ステップS57に進み、音声再生部75はステップS56で決定した音量で音声の再生を行う。ステップS53〜S57の処理は例えば閲覧者Yから全方位画像の表示終了が要求されるまで繰り返される。このように、本実施形態によれば、閲覧者Yは全方位画像が撮像された場所にいて、表示領域に表示されている物体に近づいたり離れたりするような臨場感のある体験ができる。
[第4の実施形態]
第1〜第3の実施形態は、複数方向の音声から一つの方向の音声を選択して再生するものである。第4の実施形態は、閲覧者Yの周りに複数の音声再生部を配置し、複数の方向の音声を複数の音声再生部(例えばスピーカ)に割り当てて再生するものである。
Proceeding to step S57, the
[Fourth Embodiment]
In the first to third embodiments, a sound in one direction is selected from sounds in a plurality of directions and reproduced. In the fourth embodiment, a plurality of audio reproducing units are arranged around the viewer Y, and sounds in a plurality of directions are assigned to a plurality of audio reproducing units (for example, speakers) and reproduced.
図28は複数の方向の音声を再生する様子を示した説明図である。第4の実施形態では全方位画像の表示領域の中心に図18の対応表の画像位置が一番近い音声データを、閲覧者Yの前方に配置した音声再生部から再生するように処理を行う。 FIG. 28 is an explanatory diagram showing a state in which sounds in a plurality of directions are reproduced. In the fourth embodiment, processing is performed so that the audio data whose image position in the correspondence table of FIG. 18 is closest to the center of the display area of the omnidirectional image is reproduced from the audio reproduction unit arranged in front of the viewer Y. ..
例えば図28の例では、閲覧者Yの前方に配置した音声再生部から、表示領域の中心に一番近い画像位置の音声データ(方向4音声)が再生される。また、閲覧者Yの後方、右側面、左側面に設置した音声再生部からも、対応する方向の音声データ(例えば後方:方向2音声、右側面:方向5音声、左側面:方向3音声)が再生される。
For example, in the example of FIG. 28, audio data (
なお、複数の方向の音声を複数の音声再生部に割り当てる方法は図28の例に限定するものではなく、既存のサラウンド方式を利用して、複数の音声再生部から音声を再生するようにしてもよい。 Note that the method of assigning audio in a plurality of directions to a plurality of audio reproduction units is not limited to the example of FIG. 28, and audio can be reproduced from a plurality of audio reproduction units using the existing surround method. Good.
<まとめ>
本実施形態では、全方位画像(静止画、動画)に対し、録音に使用したマイクの指向性を考慮した全方位画像上の座標に音声データを対応付けることができる。このように本実施形態では、全方位画像(静止画、動画)と、音声を方向ごとに録音できるマイクにより録音した音声データとを、全方位画像上の座標で対応付けておくことで、閲覧している表示領域に応じた音声を出力できる。
<Summary>
In this embodiment, audio data can be associated with the omnidirectional image (still image, moving image) and the coordinates on the omnidirectional image in consideration of the directivity of the microphone used for recording. As described above, in the present embodiment, the omnidirectional image (still image, moving image) and the voice data recorded by the microphone capable of recording the voice in each direction are associated with the coordinates on the omnidirectional image, so that the browsing is performed. A sound can be output according to the displayed area.
本実施形態によれば、閲覧している全方位画像の表示領域の方向からの音声を選択して出力できるので、より臨場感のある再生が可能となる。 According to the present embodiment, the sound from the direction of the display area of the omnidirectional image being viewed can be selected and output, so that more realistic reproduction is possible.
また、以上の実施例で示した図8などの構成例は、撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって、本願発明が制限されることはない。
In addition, in order to facilitate the understanding of the processing of the
撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理は、処理内容に応じてさらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、画像管理装置5が有する機能の全て又は1以上を情報端末7が有していてよく、情報端末7が有する機能の全て又は1以上を画像管理装置5が有していてもよい。画像管理装置5の記憶部5000は、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあってもよい。
The processes of the
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。対応表、音声付加部55は特許請求の範囲に記載した対応付け手段の一例である。表示制御部73、表示部74は表示手段の一例である。音声再生部75は音声再生手段の一例である。送受信部51は受信手段及び送信手段の一例である。
The present invention is not limited to the above specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims. The correspondence table/
1 撮像装置
3 通信端末
5 画像管理装置
7 情報端末
9 通信ネットワーク
9a 無線ルータ
13 撮像部
14 集音部
54 画面作成部
55 音声付加部
73 表示制御部
74 表示部
75 音声再生部
200 画像管理システム
1000 記憶部
DESCRIPTION OF
Claims (9)
前記全方位画像の撮像時に前記撮像装置において録音された複数方向からの音声データを、前記撮像装置で撮像される全方位画像上の位置と対応付ける対応付け手段と、
前記情報端末において立体球に貼り付けることで作成された前記全方位画像上の表示領域を表示する表示手段と、
前記全方位画像の撮像時に前記撮像装置において録音された複数方向からの音声データのうち、表示する前記全方位画像上の少なくとも画角と座標で示される表示領域と、前記複数方向からの音声データに対応付けられた前記全方位画像上の位置と、に基づき、前記音声データを選択して再生する音声再生手段と、
を有し、
前記音声再生手段は、画角により前記全方位画像上の表示領域の拡大縮小を操作し、当該操作に応じて再生する前記音声データの音量を制御すること
を特徴とする画像管理システム。 An image management system comprising: an image management device that manages an omnidirectional image captured by an imaging device; and an information terminal that displays a display area of the omnidirectional image,
Corresponding means for associating voice data from a plurality of directions recorded in the image capturing device at the time of capturing the omnidirectional image with a position on the omnidirectional image captured by the image capturing device,
Display means for displaying a display area on the omnidirectional image created by pasting on a solid sphere in the information terminal,
Of the audio data recorded from the plurality of directions at the time of capturing the omnidirectional image, the display area indicated by at least the angle of view and the coordinates on the omnidirectional image to be displayed, and the audio data from the plurality of directions. Based on the position on the omnidirectional image associated with, the audio reproduction means for selecting and reproducing the audio data ,
Have a,
The audio reproduction means operates the enlargement/reduction of the display area on the omnidirectional image according to the angle of view, and controls the volume of the audio data to be reproduced according to the operation.
Image management system characterized by.
を特徴とする請求項1記載の画像管理システム。 When the display area on the omnidirectional image is moved, the audio reproducing unit displays the display area on the omnidirectional image after movement and the omnidirectional image associated with the audio data from the plurality of directions. 2. The image management system according to claim 1, wherein the audio data selected based on the position and is reproduced.
を特徴とする請求項1又は2記載の画像管理システム。 The display means displays, on the omnidirectional image, a position on the omnidirectional image associated with the audio data recorded at the highest volume among the audio data from the plurality of directions. The image management system according to claim 1 or 2, wherein the display area is switched.
を特徴とする請求項3記載の画像管理システム。 The display means is turned on by setting a function of switching the display area on the omnidirectional image so that the position on the omnidirectional image associated with the voice data recorded at the highest volume is displayed. The image management system according to claim 3, wherein the image management system can be turned on/off.
を特徴とする請求項1又は2記載の画像管理システム。 The audio reproduction means reproduces the audio data to be reproduced by the distance between the coordinates of the center of the display area on the omnidirectional image and the coordinates of the position on the omnidirectional image associated with the audio data to be reproduced. The image management system according to claim 1 or 2, wherein the volume is controlled.
を特徴とする請求項1乃至5何れか一項記載の画像管理システム。 The audio reproduction means includes a display area indicated by at least an angle of view and coordinates on the omnidirectional image to be displayed, out of audio data from a plurality of directions recorded by the imaging device when the omnidirectional image is captured. Based on the position on the omnidirectional image associated with the audio data from a plurality of directions, the audio data to be reproduced from the front of the user is selected, and other than the front of the user based on the selected audio data. The image management system according to any one of claims 1 to 5, wherein the audio data to be reproduced is selected from.
を特徴とする請求項1乃至6何れか一項記載の画像管理システム。 7. The image according to any one of claims 1 to 6, further comprising: the imaging device that captures the omnidirectional image and that records audio data from the plurality of directions when the omnidirectional image is captured. Management system.
立体球に貼り付けることで作成された前記全方位画像上の表示領域を表示する表示手段と、
前記全方位画像の撮像時に前記撮像装置において録音された複数方向からの音声データのうち、表示する前記全方位画像上の少なくとも画角と座標で示される表示領域と、前記全方位画像の撮像時に前記撮像装置において録音された複数方向からの音声データを、前記撮像装置で撮像される全方位画像上の位置と対応付ける対応表により、前記複数方向からの音声データに対応付けられた前記全方位画像上の位置と、に基づき、前記音声データを選択して再生する音声再生手段と、
を有し、
前記音声再生手段は、画角により前記全方位画像上の表示領域の拡大縮小を操作し、当該操作に応じて再生する前記音声データの音量を制御すること
を特徴とする情報端末。 An information terminal for displaying a display area of an omnidirectional image captured by an imaging device,
Display means for displaying a display area on the omnidirectional image created by pasting on a solid sphere,
Of audio data from a plurality of directions recorded in the image pickup device at the time of capturing the omnidirectional image, a display area indicated by at least an angle of view and coordinates on the omnidirectional image to be displayed, and at the time of capturing the omnidirectional image. The omnidirectional image associated with the audio data from the plurality of directions by a correspondence table that associates the audio data recorded in the image capturing apparatus from the plurality of directions with the position on the omnidirectional image captured by the image capturing apparatus. An audio reproducing means for selecting and reproducing the audio data based on the position above;
Have
The audio reproduction means operates the enlargement/reduction of the display area on the omnidirectional image according to the angle of view, and controls the volume of the audio data to be reproduced according to the operation.
Information terminal characterized by.
立体球に貼り付けることで作成された前記全方位画像上の表示領域を表示する表示手段、
前記全方位画像の撮像時に前記撮像装置において録音された複数方向からの音声データのうち、表示する前記全方位画像上の少なくとも画角と座標で示される表示領域と、前記全方位画像の撮像時に前記撮像装置において録音された複数方向からの音声データを、前記撮像装置で撮像される全方位画像上の位置と対応付ける対応表により、前記複数方向からの音声データに対応付けられた前記全方位画像上の位置と、に基づき、前記音声データを選択して再生する音声再生手段、
として機能させ、
前記音声再生手段は、画角により前記全方位画像上の表示領域の拡大縮小を操作し、当該操作に応じて再生する前記音声データの音量を制御すること
を特徴とするプログラム。 An information terminal that displays the display area of the omnidirectional image captured by the imaging device,
Display means for displaying a display area on the omnidirectional image created by pasting on a solid sphere,
Of audio data from a plurality of directions recorded in the image pickup device at the time of capturing the omnidirectional image, a display area indicated by at least an angle of view and coordinates on the omnidirectional image to be displayed, and at the time of capturing the omnidirectional image. The omnidirectional image associated with the audio data from the plurality of directions by a correspondence table that associates the audio data recorded in the image capturing apparatus from the plurality of directions with the position on the omnidirectional image captured by the image capturing apparatus. Audio reproduction means for selecting and reproducing the audio data based on the position above
Function as
The audio reproduction means operates the enlargement/reduction of the display area on the omnidirectional image according to the angle of view, and controls the volume of the audio data to be reproduced according to the operation.
A program characterized by .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016092674A JP6711118B2 (en) | 2016-05-02 | 2016-05-02 | Image management system, program and information terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016092674A JP6711118B2 (en) | 2016-05-02 | 2016-05-02 | Image management system, program and information terminal |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017201743A JP2017201743A (en) | 2017-11-09 |
JP6711118B2 true JP6711118B2 (en) | 2020-06-17 |
Family
ID=60264706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016092674A Active JP6711118B2 (en) | 2016-05-02 | 2016-05-02 | Image management system, program and information terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6711118B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3503102A1 (en) | 2017-12-22 | 2019-06-26 | Nokia Technologies Oy | An apparatus and associated methods for presentation of captured spatial audio content |
JP2022007824A (en) * | 2020-06-25 | 2022-01-13 | 蔵人 小方 | Digital camera focusing sound in front, back, left, right, and up and down six directions of digital camera imaging environment, starting accumulating sound source information from operation stage, and registering environmental sound within time specified by shutter operation with video in sd memory |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0955925A (en) * | 1995-08-11 | 1997-02-25 | Nippon Telegr & Teleph Corp <Ntt> | Picture system |
JP4414708B2 (en) * | 2003-09-19 | 2010-02-10 | 株式会社リコー | Movie display personal computer, data display system, movie display method, movie display program, and recording medium |
JP2012119803A (en) * | 2010-11-30 | 2012-06-21 | Canon Inc | Super-wide-angle video recording and reproducing device |
US9930225B2 (en) * | 2011-02-10 | 2018-03-27 | Villmer Llc | Omni-directional camera and related viewing software |
JP5884421B2 (en) * | 2011-11-14 | 2016-03-15 | ソニー株式会社 | Image processing apparatus, image processing apparatus control method, and program |
JP5992210B2 (en) * | 2012-06-01 | 2016-09-14 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
JP2014143678A (en) * | 2012-12-27 | 2014-08-07 | Panasonic Corp | Voice processing system and voice processing method |
JP6471418B2 (en) * | 2014-06-25 | 2019-02-20 | 株式会社リコー | Image / sound distribution system, image / sound distribution device, and image / sound distribution program |
WO2016004258A1 (en) * | 2014-07-03 | 2016-01-07 | Gopro, Inc. | Automatic generation of video and directional audio from spherical content |
-
2016
- 2016-05-02 JP JP2016092674A patent/JP6711118B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017201743A (en) | 2017-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6756269B2 (en) | Communication terminals, image communication systems, communication methods, and programs | |
US10979751B2 (en) | Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication | |
US10778865B2 (en) | Image processing apparatus, image processing system, and image processing method | |
US10721116B2 (en) | Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium | |
JP2021039468A (en) | Imaging device, communication system, communication method, and program | |
JP7420126B2 (en) | System, management system, image management method, and program | |
JP6816465B2 (en) | Image display systems, communication systems, image display methods, and programs | |
JP2014165763A (en) | Editing device, editing method, and editing program | |
JP2017212510A (en) | Image management device, program, image management system, and information terminal | |
US10147160B2 (en) | Image management apparatus and system, and method for controlling display of captured image | |
JP6711118B2 (en) | Image management system, program and information terminal | |
US10817980B2 (en) | Information processing apparatus, information processing system, data generation method, and recording medium storing program code | |
JP7017045B2 (en) | Communication terminal, display method, and program | |
JP2018026642A (en) | Image management system, image communication system, image management method, and program | |
JP6586819B2 (en) | Image management system, image communication system, image management method, and program | |
JP7006356B2 (en) | Communication terminals, communication systems, communication methods, and programs | |
JP7205323B2 (en) | Communication terminal, image communication system, display method, and program | |
JP6992338B2 (en) | Communication system, communication management method, program, system and communication method | |
JP7354733B2 (en) | Communication terminal, image communication system, display method, and program | |
JP6816403B2 (en) | Image management system, image communication system, image management method, and program | |
JP2020162118A (en) | Photographing device, photographing system, image processing method, and program | |
JP2022050534A (en) | Communication terminal, communication system, communication method, display control method, and program | |
JP2017037423A (en) | Image management system, image management method, image communication system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200511 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6711118 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |