JP2018110375A - Display device, program, and display method - Google Patents
Display device, program, and display method Download PDFInfo
- Publication number
- JP2018110375A JP2018110375A JP2017208675A JP2017208675A JP2018110375A JP 2018110375 A JP2018110375 A JP 2018110375A JP 2017208675 A JP2017208675 A JP 2017208675A JP 2017208675 A JP2017208675 A JP 2017208675A JP 2018110375 A JP2018110375 A JP 2018110375A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- display device
- omnidirectional
- planar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Description
本発明は、表示装置、プログラム、及び表示方法に関する。 The present invention relates to a display device, a program, and a display method.
従来のデジタルカメラよりも広角な画像を撮像できる撮像装置が普及しはじめている。このような撮像装置の1つとして魚眼レンズ等を複数組み合わせ、1回の撮像で周囲360度が撮像された全天球画像を作成する全天球カメラが知られている。全天球画像に対しユーザは任意に視線方向を決定して全天球画像を様々な方向から閲覧することができる。 Imaging devices capable of capturing images with a wider angle than conventional digital cameras are becoming popular. As one of such imaging apparatuses, there is known an omnidirectional camera that combines a plurality of fish-eye lenses and the like to create an omnidirectional image in which 360 degrees around is captured by one imaging. The user can arbitrarily determine the viewing direction for the omnidirectional image and view the omnidirectional image from various directions.
しかしながら、画像処理の負荷などを考慮すると撮像範囲が広い全天球画像の画像処理には制約が生じやすく、通常のデジタルカメラの画像と比較すると画質が低下(例えば解像度が低い、白飛びしやすい、色再現性が低い等)する傾向がある。このため、ユーザが全天球画像の一部を拡大して閲覧するような場合に、画質の低下が気になったり詳細な情報を得られにくかったりするという不都合がある。 However, considering the load of image processing and the like, image processing of a spherical image with a wide imaging range is likely to be restricted, and the image quality is deteriorated compared to an image of a normal digital camera (for example, the resolution is low and whiteout is likely to occur) The color reproducibility is low). For this reason, when a user enlarges and browses a part of the omnidirectional image, there is an inconvenience that the image quality is deteriorated and it is difficult to obtain detailed information.
このような不都合に対し、広角画像に望遠画像を嵌め込む技術が考案されている(例えば、特許文献1参照。)。 For such inconvenience, a technique for fitting a telephoto image into a wide-angle image has been devised (see, for example, Patent Document 1).
しかしながら、従来の技術では動画の重畳について考慮されていないという問題がある。ユーザが対象を動画で閲覧できれば状況を把握しやすいが、全天球画像は画素数が多いため表示装置が動画の全天球画像を表示すると多くのリソースを費やしてしまうおそれがある。これに対し、ユーザが見たい領域や動きがある領域は一部である場合が多い。そこで、表示装置が全天球画像の一部に動画を重畳することが検討されるが、全天球画像は画角が広いため、動画の領域をユーザが見ているとは限らない。見られているとは限らない動画を再生する必要性は低いし、表示装置の処理負荷を増大させるおそれがある。 However, there is a problem that the conventional technique does not consider the superimposition of moving images. If the user can browse the target with a moving image, it is easy to grasp the situation. However, since the omnidirectional image has a large number of pixels, if the display device displays the omnidirectional image of the moving image, a large amount of resources may be consumed. On the other hand, there are many cases where a user wants to see a region or a region with a movement. Therefore, it is considered that the display device superimposes a moving image on a part of the omnidirectional image. However, since the omnidirectional image has a wide angle of view, the user does not always see the moving image area. There is a low need to play a moving image that is not always seen, and there is a risk of increasing the processing load of the display device.
本発明は、上記課題に鑑み、重畳された動画を適切に再生できる表示装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a display device capable of appropriately reproducing a superimposed moving image.
本発明は、第一の画像に動画として表示可能な第二の画像が重畳された前記第一の画像を表示する表示装置であって、前記第二の画像が閲覧されるか否かを判断する判断手段と、前記判断手段の判断結果に応じて、前記第二の画像を動画として再生するか又は静止画として表示するかを切り替える表示切替手段と、を有する。 The present invention is a display device that displays the first image in which a second image that can be displayed as a moving image is superimposed on the first image, and determines whether or not the second image is browsed And a display switching means for switching whether the second image is reproduced as a moving image or displayed as a still image according to a determination result of the determining means.
重畳された動画を適切に再生できる表示装置を提供することができる。 It is possible to provide a display device that can appropriately reproduce the superimposed moving image.
以下、本発明を実施するための形態について図面を参照しながら説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
<全天球画像の概略>
図1は、全天球画像CEについて説明する図の一例である。図1(a)は、三次元の立体球CSで表わされた全天球画像CEを示し、図1(b)は正距円筒図法で表された全天球画像CEを示す。全天球カメラで生成された全天球画像CEは図1(b)のような画像が立体球CSに張り合わされた三次元の構造を有している。仮想カメラICはユーザの視点に対応し、図1では全天球画像CEの中心に視点がある。ユーザは仮想カメラICを通るX軸、Y軸、Z軸を中心とする3軸の回転を行わせて、全天球画像CEの任意の閲覧領域T(ディスプレイ又は表示用のソフトウェアに表示される範囲)を表示させることができる。また、ユーザは閲覧領域Tを拡大又は縮小することもできる。
<Overview of spherical image>
FIG. 1 is an example of a diagram illustrating the omnidirectional image CE. 1A shows an omnidirectional image CE represented by a three-dimensional solid sphere CS, and FIG. 1B shows an omnidirectional image CE represented by equirectangular projection. The omnidirectional image CE generated by the omnidirectional camera has a three-dimensional structure in which an image as shown in FIG. The virtual camera IC corresponds to the viewpoint of the user. In FIG. 1, the viewpoint is at the center of the omnidirectional image CE. The user rotates three axes around the X, Y, and Z axes that pass through the virtual camera IC, and is displayed on an arbitrary viewing area T (display or display software) of the omnidirectional image CE. Range) can be displayed. The user can also enlarge or reduce the browsing area T.
<本実施形態の表示装置の概略>
図2は、全天球画像に重畳された動画の表示方法を説明する図の一例である。図2の全天球画像CEには動画の平面画像Pが重畳されており、図2(a)から図2(b)にかけてユーザが平面画像Pを大きして見るために全天球画像CEを拡大している。ユーザは動画を意識していても無意識でもよい。ユーザに意識させるために平面画像Pが存在する旨(後述する枠など)を表示装置が表示してもよい。
<Outline of Display Device of Present Embodiment>
FIG. 2 is an example of a diagram illustrating a method for displaying a moving image superimposed on an omnidirectional image. 2 is superimposed on the omnidirectional image CE, and the celestial sphere image CE is displayed so that the user can enlarge and view the planar image P from FIGS. 2 (a) to 2 (b). Is expanding. The user may be conscious of the moving image or unconscious. The display device may display that there is a planar image P (such as a frame to be described later) to make the user aware of it.
図2(a)から図2(b)でユーザは全天球画像CEを徐々に拡大している。図2(a)の平面画像Pが図2(b)(c)の平面画像Pの全体に対応する。図2(b)のように、ユーザが全天球画像CEをある程度拡大すると、ユーザが平面画像Pを見たいと推定し、表示装置は動画の再生を開始する。図2(c)ではモノレールの列車351が右から左方向に動いている動画が表示されている。 2A to 2B, the user gradually enlarges the omnidirectional image CE. The planar image P in FIG. 2A corresponds to the entire planar image P in FIGS. As shown in FIG. 2B, when the user enlarges the omnidirectional image CE to some extent, it is estimated that the user wants to see the planar image P, and the display device starts reproducing the moving image. In FIG. 2C, a moving image in which the monorail train 351 is moving from the right to the left is displayed.
このように、ユーザが平面画像Pを見ると推定されると動画が再生されるので、ユーザが平面画像Pを見たい場合に動画を再生でき、不要な動画の再生を抑制できる。また、ユーザは動画を最初から閲覧できる。仮に常に再生されていると、ユーザが動画の閲覧を開始した際に再生されてからどのくらいの時間が経っているか分からない。また、ユーザが平面画像Pを拡大していくと動画の再生が始まるので、急に画面が動き始めるように見え、ユーザの注意を引くことができる。 As described above, when it is estimated that the user views the planar image P, the moving image is reproduced. Therefore, when the user wants to view the planar image P, the moving image can be reproduced, and reproduction of unnecessary moving images can be suppressed. In addition, the user can view the moving image from the beginning. If it is always played back, it will not be known how long it has passed since the playback started when the user started browsing the video. In addition, since the reproduction of the moving image starts when the user enlarges the planar image P, it seems that the screen suddenly starts moving, and the user's attention can be drawn.
<用語について>
重畳とは、2つ以上のものを合わせて1つのものにすることをいう。また、本実施形態では、重畳に、貼り付け、嵌め込み、合成、重ね合わせという意味が含まれてよい。
<Terminology>
Superposition means that two or more objects are combined into one. In the present embodiment, the superimposition may include the meanings of pasting, fitting, synthesis, and superposition.
特許請求の範囲の閲覧とは、ユーザが第二の画像を意識して見ることをいう。第一の画像は例えば全天球画像であり、第二の画像は例えば平面画像である。 The browsing of the claims means that the user views the second image with consciousness. The first image is, for example, an omnidirectional image, and the second image is, for example, a planar image.
動画とは、ほぼ一定時間間隔で撮像された一連の画像(フレーム)を短い間隔で連続表示することにより得られる動きのある映像をいう。 A moving image refers to a moving image obtained by continuously displaying a series of images (frames) captured at substantially constant time intervals at short intervals.
また、高画質の定義は画像によっても異なるため、ユーザの閲覧目的によって種々でよいが、一般に画像が忠実に光景を表すことをいう。例えば、解像度が高い、ダイナミックレンジが広い、色再現性が高い、ノイズが少ない、画像をいう。 Also, since the definition of high image quality varies depending on the image, it may vary depending on the user's viewing purpose, but generally it means that the image faithfully represents a scene. For example, an image having a high resolution, a wide dynamic range, high color reproducibility, little noise, and the like.
<システム構成例>
図3は、全天球カメラ20と表示装置30を有する画像処理システム100のシステム構成例を示す図である。図3(a)は全天球カメラ20と通常のデジタルカメラ9を有する画像処理システム100を示す。通常のデジタルカメラ9とは、一般に35mmフィルムに換算した場合に焦点距離35mm以上で撮像する撮像装置(カメラ)であるが、24mm〜35mm程度の広角画像を撮像できる撮像装置が含まれてよい。簡単には、全天球カメラ20ではなく平面画像Pを撮像する撮像装置ということができる。換言すると、閲覧領域Tに全体を表示可能な画像を撮像する撮像装置である。
<System configuration example>
FIG. 3 is a diagram illustrating a system configuration example of the image processing system 100 including the omnidirectional camera 20 and the display device 30. FIG. 3A shows an image processing system 100 having an omnidirectional camera 20 and a normal digital camera 9. The normal digital camera 9 is generally an image pickup apparatus (camera) that picks up an image with a focal length of 35 mm or more when converted into a 35 mm film, but may include an image pickup apparatus that can pick up a wide-angle image of about 24 mm to 35 mm. Simply, it can be said that the imaging device captures the planar image P instead of the omnidirectional camera 20. In other words, the imaging apparatus captures an image that can be displayed entirely in the browsing area T.
デジタルカメラ9は、全天球画像CEよりも少なくとも解像度が高い(撮像する画角に対する画素数が多い)撮像素子を有している。また、全天球カメラ20よりも狭い撮像範囲で撮像条件(露出時間、シャッター速度、ホワイトバランス等)を最適化するため、白飛びしにくく、色再現性も高く、ノイズが少ない場合が多い。このようにデジタルカメラ9はいわゆる高画質の平面画像を生成する。 The digital camera 9 has an image sensor that has at least a higher resolution than the omnidirectional image CE (a large number of pixels with respect to the angle of view to be imaged). In addition, since the imaging conditions (exposure time, shutter speed, white balance, etc.) are optimized within an imaging range narrower than that of the omnidirectional camera 20, whiteout is difficult, color reproducibility is high, and noise is often low. Thus, the digital camera 9 generates a so-called high-quality planar image.
これにより、全天球画像CEでは拡大時に粗くなる画像を、平面画像Pの高い画質の画像で補うことができる。図3(a)の構成では、デジタルカメラ9が表示装置30を兼ねている。デジタルカメラ9の具体例は、例えばデジタルスチルカメラ、又はデジタルビデオカメラであるが、撮像装置を備えたその他の装置であってもよい。例えば、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)、ウェアラブルPC(Personal Computer)等でもよい。この場合、スマートフォン等に全天球カメラ20が外付けされてよい。 Thereby, in the omnidirectional image CE, an image that becomes rough when enlarged can be supplemented with a high-quality image of the planar image P. In the configuration of FIG. 3A, the digital camera 9 also serves as the display device 30. A specific example of the digital camera 9 is, for example, a digital still camera or a digital video camera, but may be other devices including an imaging device. For example, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant), a wearable PC (Personal Computer), or the like may be used. In this case, the omnidirectional camera 20 may be externally attached to a smartphone or the like.
全天球カメラ20とデジタルカメラ9はUSB,Bluetooth(登録商標)、無線LANなどで通信することができる。全天球カメラ20が撮像した全天球画像CEはデジタルカメラ9に送信される。デジタルカメラ9も同様に平面画像Pを撮像する。全天球画像CEには周囲360度の風景が写っているので平面画像Pは全天球画像CEの一部になる。 The omnidirectional camera 20 and the digital camera 9 can communicate with each other by USB, Bluetooth (registered trademark), wireless LAN, or the like. The omnidirectional image CE captured by the omnidirectional camera 20 is transmitted to the digital camera 9. Similarly, the digital camera 9 captures the planar image P. Since the 360-degree landscape is reflected in the omnidirectional image CE, the planar image P becomes a part of the omnidirectional image CE.
デジタルカメラ9は表示装置30として、全天球画像CEに平面画像Pを重畳する。具体的には、例えばユーザUが平面画像Pと全天球画像CEを選択して、重畳を指示する。あるいは、デジタルカメラ9を重畳モードに設定して平面画像Pを撮像すると、平面画像Pがマッチングする全天球画像CEに自動的に重畳する。画像の一致度が低ければ重畳されないので不都合は少ない。また、表示装置30としてのデジタルカメラ9は動画の再生と停止を切り替えてデジタルカメラ9が有するディスプレイに表示したりする。このように、デジタルカメラ9が表示装置30である場合は、全天球カメラ20とデジタルカメラ9という構成で、全天球画像CEと平面画像Pを重畳したり動画の再生と停止を替えたりすることができる。 As the display device 30, the digital camera 9 superimposes the planar image P on the omnidirectional image CE. Specifically, for example, the user U selects the planar image P and the omnidirectional image CE and instructs superposition. Alternatively, when the digital camera 9 is set to the superimposing mode and the planar image P is captured, the digital image is automatically superimposed on the omnidirectional image CE with which the planar image P matches. There is little inconvenience because the images are not superimposed if the degree of coincidence of the images is low. Further, the digital camera 9 as the display device 30 switches between reproduction and stop of moving images and displays them on the display of the digital camera 9. As described above, when the digital camera 9 is the display device 30, the omnidirectional camera 20 and the digital camera 9 are configured to superimpose the omnidirectional image CE and the planar image P, or to change the playback and stop of the moving image. can do.
図3(b)は、全天球カメラ20、通常のデジタルカメラ9、及び表示装置30を有する画像処理システム100を示す。全天球カメラ20と表示装置30、及び、デジタルカメラ9と表示装置30はUSB、Bluetooth(登録商標)、無線LANなどで通信することができる。全天球カメラ20が撮像した全天球画像CEは表示装置30に送信される。デジタルカメラ9が撮像した平面画像Pも表示装置30に送信される。送信の他、記憶媒体に格納された全天球画像CE又は平面画像Pを表示装置30が記憶媒体から読み取ってもよい。 FIG. 3B shows an image processing system 100 having an omnidirectional camera 20, a normal digital camera 9, and a display device 30. The omnidirectional camera 20 and the display device 30 and the digital camera 9 and the display device 30 can communicate with each other by USB, Bluetooth (registered trademark), wireless LAN, or the like. The omnidirectional image CE captured by the omnidirectional camera 20 is transmitted to the display device 30. A planar image P captured by the digital camera 9 is also transmitted to the display device 30. In addition to transmission, the display device 30 may read the omnidirectional image CE or the planar image P stored in the storage medium from the storage medium.
表示装置30は、例えばPC、スマートフォン、タブレット端末、PDAなどの情報処理装置である。この他、情報処理装置としての機能を有する複合機、プロジェクタ、テレビ会議端末などでもよい。 The display device 30 is an information processing device such as a PC, a smartphone, a tablet terminal, or a PDA. In addition, a multifunction device having a function as an information processing device, a projector, a video conference terminal, or the like may be used.
図3(b)の構成では、表示装置30が全天球画像CEに平面画像Pを重畳する。また、動画の再生と停止を切り替えて表示装置30のディスプレイに表示する。より具体的には、ユーザUは、平面画像Pと全天球画像CEを見比べることなどで、どの平面画像Pがどの全天球画像CEの一部か分かるので、全天球画像CEとこれに貼り付ける平面画像Pを選択し、表示装置30に貼り付けを行わせる。デジタルカメラ9のように自動的に重畳させてもよい。このように、表示装置30は全天球画像CEと平面画像Pを取得して、全天球画像CEに平面画像Pを重畳し、動画の再生と停止を切り替えることができる。図4以下の説明では、特に言及しない限り、図3(b)の構成を念頭に説明する。 In the configuration of FIG. 3B, the display device 30 superimposes the planar image P on the omnidirectional image CE. In addition, the playback and stop of the moving image are switched and displayed on the display device 30. More specifically, the user U can know which planar image P is a part of which omnidirectional image CE by comparing the planar image P with the omnidirectional image CE. A planar image P to be pasted is selected, and the display device 30 is pasted. You may superimpose automatically like the digital camera 9. Thus, the display device 30 can acquire the omnidirectional image CE and the planar image P, superimpose the planar image P on the omnidirectional image CE, and switch between playback and stop of the moving image. In the description of FIG. 4 and subsequent figures, the configuration of FIG. 3B will be described in mind unless otherwise specified.
図3(c)は、全天球カメラ20、通常のデジタルカメラ9、表示装置30、及び画像重畳サーバ70がネットワークNを介して接続された画像処理システム100を示す。ネットワークNは、ユーザU環境に構築されているLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANやインターネットと呼ばれる。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、全天球カメラ20及びデジタルカメラ9が直接、公衆回線網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。 FIG. 3C shows an image processing system 100 in which an omnidirectional camera 20, a normal digital camera 9, a display device 30, and an image superimposing server 70 are connected via a network N. The network N is constructed by a LAN constructed in the user U environment, a provider network of a provider that connects the LAN to the Internet, a line provided by a line operator, and the like. When the network N has a plurality of LANs, the network N is called a WAN or the Internet. The network N may be constructed by either wired or wireless, and wired and wireless may be combined. In addition, when the omnidirectional camera 20 and the digital camera 9 are directly connected to the public network, they can be connected to the provider network without going through the LAN.
画像重畳サーバ70は一般的な情報処理装置又はサーバ装置でよいし、表示装置30の具体例は図3(b)と同様でよい。しかしながら、画像重畳サーバ70はクラウドコンピューティングに対応していることが好ましい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。 The image superimposing server 70 may be a general information processing device or server device, and a specific example of the display device 30 may be the same as that in FIG. However, the image superimposing server 70 is preferably compatible with cloud computing. Cloud computing refers to a usage pattern in which resources on a network are used without being aware of specific hardware resources.
全天球カメラ20が撮像した全天球画像CEは画像重畳サーバ70に送信される。デジタルカメラ9が撮像した平面画像Pも画像重畳サーバ70に送信される。図3(c)の構成では、画像重畳サーバ70が全天球画像CEに平面画像Pを重畳する。より具体的には、表示装置30はユーザUの操作を受け付けて画像重畳サーバ70にアクセスして、全天球画像CE及び平面画像Pのリスト(サムネイル画像など)を表示する。ユーザUは、平面画像Pと全天球画像CEを見比べることなどで、どの平面画像Pがどの全天球画像CEの一部か分かるので、全天球画像CEとこれに貼り付ける平面画像Pを選択し、画像重畳サーバ70に通知する。画像重畳サーバ70が自動的に重畳してもよい。 The omnidirectional image CE captured by the omnidirectional camera 20 is transmitted to the image superimposing server 70. A planar image P captured by the digital camera 9 is also transmitted to the image superimposing server 70. In the configuration of FIG. 3C, the image superimposing server 70 superimposes the planar image P on the omnidirectional image CE. More specifically, the display device 30 receives the operation of the user U, accesses the image superimposing server 70, and displays a list of omnidirectional images CE and planar images P (thumbnail images and the like). The user U can know which planar image P is a part of which celestial sphere image CE by comparing the planar image P with the celestial sphere image CE. Is notified to the image superimposing server 70. The image superimposing server 70 may automatically superimpose.
画像重畳サーバ70は、全天球画像CEに平面画像Pを重畳すると共に、閲覧領域Tの画像データを表示装置30に送信する。初期状態の視線方向と画角は予め決まっているものとする。画像重畳サーバ70はWebサーバとして閲覧領域Tの画像データとユーザUの操作を受け付けるための表示プログラム(スクリプト言語で記述されている)を表示装置30に送信する。表示装置30は表示プログラムを実行しユーザUの操作を受け付け、視線方向と画角を画像重畳サーバ70に送信する。画像重畳サーバ70は視線方向と画角に応じて閲覧領域Tを更新し、閲覧領域Tの画像データを表示装置30に送信する。画像重畳サーバ70は、動画の再生と停止を切り替えるため、表示装置30は動画が再生される画像と再生されない画像を表示できる。 The image superimposing server 70 superimposes the planar image P on the omnidirectional image CE and transmits the image data of the viewing area T to the display device 30. It is assumed that the viewing direction and the angle of view in the initial state are determined in advance. The image superimposing server 70 transmits, as a Web server, image data in the viewing area T and a display program (described in script language) for accepting an operation of the user U to the display device 30. The display device 30 executes the display program, accepts an operation of the user U, and transmits the line-of-sight direction and the angle of view to the image superimposing server 70. The image superimposing server 70 updates the viewing area T according to the line-of-sight direction and the angle of view, and transmits image data of the viewing area T to the display device 30. Since the image superimposing server 70 switches between reproduction and stop of the moving image, the display device 30 can display an image in which the moving image is reproduced and an image that is not reproduced.
全天球画像CE、平面画像P及び表示プログラムを画像重畳サーバ70が表示装置30に送信してもよい。この場合、表示装置30がユーザUの操作に応じて閲覧領域Tを決定し、動画の再生と停止を切り替える。 The image superimposing server 70 may transmit the omnidirectional image CE, the planar image P, and the display program to the display device 30. In this case, the display device 30 determines the viewing area T according to the operation of the user U, and switches between playback and stop of the moving image.
また、全天球画像CEと平面画像Pから画像重畳サーバ70が位置パラメータ(後述する)を算出し、全天球画像CEと平面画像P及び位置パラメータを表示装置30がダウンロードしてもよい。ユーザは任意に視線方向を変えるが、表示装置30は同じ位置パラメータを使って全天球画像CEに平面画像Pを重畳できる。後述する図13の位置パラメータ作成部8が画像重畳サーバ70にあり、変換表示部7を表示装置30が有する形態となる。 Further, the image superimposing server 70 may calculate a position parameter (described later) from the omnidirectional image CE and the planar image P, and the display device 30 may download the omnidirectional image CE, the planar image P, and the positional parameter. Although the user arbitrarily changes the line-of-sight direction, the display device 30 can superimpose the planar image P on the omnidirectional image CE using the same position parameter. A position parameter creation unit 8 of FIG. 13 to be described later is provided in the image superimposing server 70, and the conversion display unit 7 is included in the display device 30.
<ハードウェア構成>
<<全天球カメラのハードウェア構成>>
図4は、全天球カメラのハードウェア構成図である。以下では、全天球カメラ20は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラ9やスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に全天球カメラ20と同じ機能を有するようにしてもよい。
<Hardware configuration>
<< Hardsphere camera hardware configuration >>
FIG. 4 is a hardware configuration diagram of the omnidirectional camera. In the following, the omnidirectional camera 20 is an omnidirectional imaging apparatus using two imaging elements, but the number of imaging elements may be three or more. In addition, it is not always necessary to use an apparatus dedicated to omnidirectional imaging. By attaching a retrofit omnidirectional imaging unit to a normal digital camera 9, a smartphone, or the like, it has substantially the same function as the omnidirectional camera 20. May be.
図4に示されているように、全天球カメラ20は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、及び、加速度センサ120なども接続される。 As shown in FIG. 4, the omnidirectional camera 20 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, antenna 117a, electronic compass 118, gyro sensor 119, and acceleration A sensor 120 or the like is also connected.
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Among these, the imaging unit 101 includes wide-angle lenses (so-called fish-eye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging units provided corresponding to the wide-angle lenses. Elements 103a and 103b are provided. The image sensors 103a and 103b are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by a fisheye lens into image data of an electric signal and output the image data. A timing generation circuit for generating a vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。 The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I / F bus. On the other hand, the imaging elements 103 a and 103 b of the imaging unit 101 are connected to a serial I / F bus (I2C bus or the like) separately from the imaging control unit 105. The image processing unit 104 and the imaging control unit 105 are connected to the CPU 111 via the bus 110. Further, ROM 112, SRAM 113, DRAM 114, operation unit 115, network I / F 116, communication unit 117, and electronic compass 118 are connected to the bus 110.
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを重畳処理して、図1(b)に示されているような正距円筒図法による画像のデータを作成する。 The image processing unit 104 takes in the image data output from the image sensors 103a and 103b through the parallel I / F bus, performs predetermined processing on each image data, and then superimposes the image data. Then, image data is created by equirectangular projection as shown in FIG.
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 In general, the imaging control unit 105 sets a command or the like in a register group of the imaging elements 103a and 103b using the I2C bus with the imaging control unit 105 as a master device and the imaging elements 103a and 103b as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to capture status data of the register groups of the imaging elements 103a and 103b and send it to the CPU 111.
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 The imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some imaging devices may have a preview display function using a display or a function corresponding to moving image display. In this case, output of image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frame / min).
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置には表示部が設けられていないが、表示部を設けてもよい。 Further, as will be described later, the imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the imaging device is not provided with a display unit, but a display unit may be provided.
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.
CPU111は、全天球カメラ20の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒図法による画像のデータを記憶する。 The CPU 111 controls the overall operation of the omnidirectional camera 20 and executes necessary processes. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and processed image data based on equirectangular projection.
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザUは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。 The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user U inputs various imaging modes and imaging conditions by operating the operation buttons.
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶された正距円筒図法による画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して表示装置30等の外部装置に送信されたりする。 The network I / F 116 is a general term for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. Further, the network I / F 116 may be a network interface regardless of wireless or wired. The image data of the equirectangular projection stored in the DRAM 114 is recorded on an external medium via the network I / F 116 or displayed via the network I / F 116 as a network I / F as necessary. Or transmitted to an external device such as the device 30.
通信部117は、全天球カメラ20に設けられたアンテナ117aを介して、Wi-Fi(wireless fidelity)やNFC等の短距離無線技術によって、表示装置30等の外部装置と通信を行う。この通信部117によっても、正距円筒図法による画像のデータを表示装置30等の外部装置に送信することができる。 The communication unit 117 communicates with an external device such as the display device 30 by a short-range wireless technology such as Wi-Fi (wireless fidelity) or NFC via the antenna 117 a provided in the omnidirectional camera 20. The communication unit 117 can also transmit image data based on equirectangular projection to an external device such as the display device 30.
電子コンパス118は、地球の磁気から全天球カメラ20の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the direction of the omnidirectional camera 20 from the earth's magnetism and outputs the direction information. This orientation information is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image. The related information includes each data of the image capturing date and time and the data capacity of the image data.
ジャイロセンサ119は、全天球カメラ20の移動に伴う角度の変化(ロール角、ピッチング角、ヨー角)を検出する。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 The gyro sensor 119 detects a change in angle (roll angle, pitching angle, yaw angle) accompanying the movement of the omnidirectional camera 20. The change in angle is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image.
加速度センサ120は3軸方向の加速度を検出する。検出した加速度に基づいて全天球カメラ20の姿勢(重力方向に対する角度)を検出する。ジャイロセンサ119と加速度センサ120は両方を有することで画像補正の精度が向上する。 The acceleration sensor 120 detects acceleration in three axis directions. Based on the detected acceleration, the attitude of the omnidirectional camera 20 (angle with respect to the direction of gravity) is detected. By having both the gyro sensor 119 and the acceleration sensor 120, the accuracy of image correction is improved.
なお、一眼レフのハードウェア構成は図4と同様であるか又は相違があるとしても本実施形態の説明には支障がないものとする。 It should be noted that even if the single-lens reflex hardware configuration is the same as or different from that shown in FIG.
<<表示装置のハードウェア構成>>
図5は、表示装置のハードウェア構成図である。表示装置30は、表示装置全体の動作を制御するCPU501、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、表示装置用のプログラム等の各種データを記憶するHD(Hard Disk)504を有する。また、CPU501の制御に従ってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507を有する。また、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、ネットワークNを利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、を有する。また、着脱可能な記録媒体の一例としての光記憶媒体513に対する各種データの読み出し又は書き込みを制御する光メディアドライブ514、及び、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
<< Hardware configuration of display device >>
FIG. 5 is a hardware configuration diagram of the display device. The display device 30 includes a CPU 501 that controls the operation of the entire display device, a ROM 502 that stores a program used to drive the CPU 501 such as an IPL (Initial Program Loader), a RAM 503 that is used as a work area for the CPU 501, and a program for the display device HD (Hard Disk) 504 for storing various data such as. In addition, an HDD (Hard Disk Drive) 505 that controls reading or writing of various data with respect to the HD 504 according to the control of the CPU 501 and a media drive 507 that controls reading or writing (storage) of data with respect to a recording medium 506 such as a flash memory. In addition, a display 508 for displaying various information such as a cursor, menu, window, character, or image, a network I / F 509 for data communication using the network N, a character, a numerical value, various instructions for inputting, etc. A keyboard 511 having a plurality of keys, and a mouse 512 for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. Further, as shown in FIG. 5, an optical media drive 514 that controls reading or writing of various data with respect to an optical storage medium 513 as an example of a removable recording medium, and the above-described components are electrically connected. For this purpose, a bus line 510 such as an address bus or a data bus is provided.
なお、画像重畳サーバ70のハードウェア構成は図5と同様であるか又は相違があるとしても本実施形態の説明には支障がないものとする。 It should be noted that the hardware configuration of the image superimposing server 70 is the same as or different from that in FIG.
<全天球画像CEの作成>
図6〜図10を用いて全天球画像CEについて説明する。図6は、全天球カメラ20の使用イメージ図である。全天球カメラ20は、図6に示されているように、ユーザUが手に持ってユーザUの周りの被写体を撮像するために用いられる。全天球カメラ20は、2つの撮像素子の背面同士が対向させられた構造を有しており、それぞれユーザUの周りの被写体を撮像することで、2つの半球画像を得る。
<Creation of spherical image CE>
The omnidirectional image CE will be described with reference to FIGS. FIG. 6 is a usage image diagram of the omnidirectional camera 20. As shown in FIG. 6, the omnidirectional camera 20 is used by the user U to take an image of a subject around the user U with his hand. The omnidirectional camera 20 has a structure in which the back surfaces of the two imaging elements are opposed to each other, and obtains two hemispherical images by imaging the subject around the user U, respectively.
次に、図7〜図9を用いて、全天球カメラ20で撮像された画像から全天球画像CEが作成されるまでの処理の概略を説明する。なお、図7(a)は全天球カメラ20で撮像された半球画像(前側)、図7(b)は全天球カメラ20で撮像された半球画像(後側)、図7(c)は正距円筒図法による全天球画像を示した図である。図8(a)は正距円筒図法による画像で球を被う状態を示した概念図、図8(b)は全天球画像CEを示した図である。 Next, an outline of processing until an omnidirectional image CE is created from an image captured by the omnidirectional camera 20 will be described with reference to FIGS. 7A shows a hemispheric image (front side) captured by the omnidirectional camera 20, FIG. 7B shows a hemispheric image captured by the omnidirectional camera 20 (rear side), and FIG. 7C. These are the figures which showed the omnidirectional image by equirectangular projection. FIG. 8A is a conceptual diagram showing a state where a sphere is covered with an image obtained by equirectangular projection, and FIG. 8B is a diagram showing an omnidirectional image CE.
図7(a)に示されているように、全天球カメラ20によって得られた画像は、魚眼レンズによって湾曲した半球画像(前側)となる。また、図7(b)に示されているように、全天球カメラ20によって得られた画像は、魚眼レンズによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、全天球カメラ20によってつなぎ合わされ、図7(c)に示されているように、正距円筒図法による画像が作成される。 As shown in FIG. 7A, the image obtained by the omnidirectional camera 20 is a hemispherical image (front side) curved by the fisheye lens. Further, as shown in FIG. 7B, the image obtained by the omnidirectional camera 20 is a hemispherical image (rear side) curved by the fisheye lens. Then, the hemispherical image (front side) and the hemispherical image inverted at 180 degrees (rear side) are joined together by the omnidirectional camera 20, and as shown in FIG. An image is created.
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図8(a)に示されているように、正距円筒図法による画像が球面を覆うように貼り付けられ、図8(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒図法による画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。全天球画像CEは、静止画であっても動画であってもよい。具体的には図8(a)の正距円筒図法による画像から図8(b)の三次元の全天球画像へ変換は図9にて説明される式(1)が利用される。 Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 8A, an image by equirectangular projection is pasted so as to cover the spherical surface. An omnidirectional image CE as shown in (b) is created. As described above, the omnidirectional image CE is represented as an image in which an image obtained by equidistant cylindrical projection faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. The omnidirectional image CE may be a still image or a moving image. Specifically, the conversion from the image by the equirectangular projection of FIG. 8A to the three-dimensional omnidirectional image of FIG. 8B uses the equation (1) described in FIG.
図9(a)は、全天球画像CEを正距円筒図法により示す図であり、図9(b)は正距円筒図法の全天球画像CEが全天球に貼り付けられた全天球画像CEを示す。図9(a)の画像から図9(b)の画像への変換が、図1で説明した全天球カメラ20の撮像時に全天球カメラ20で行われている処理である。 FIG. 9A is a diagram showing the omnidirectional image CE by the equirectangular projection, and FIG. 9B is an omnidirectional image in which the omnidirectional image CE of the equirectangular projection is pasted on the omnidirectional sphere. A spherical image CE is shown. The conversion from the image in FIG. 9A to the image in FIG. 9B is a process performed by the omnidirectional camera 20 when the omnidirectional camera 20 described in FIG.
正距円筒図法の任意の点(λ,φ)に対応する三次元上の点(x,y,z)の座標は、球の半径を1.0とすると下記の式で求めることができる。
X = cos(φ)*cos(λ)
Y= sin(φ) …(1)
Z = cos(φ)*sin(λ)
このように、正距円筒図法の全天球画像CEから三次元の全天球画像CEが得られる。全天球画像CEは、球面を覆うように貼り付けられた画像であるため湾曲しており、人間が見ると違和感を持ってしまう。そこで、表示装置30は、全天球画像CEの一部の閲覧領域Tを湾曲の少ない平面画像Pとして表示することで、人間に違和感を与えないように表示する。閲覧領域Tは、三次元の仮想空間における座標(X,Y,Z)によって示される。一方、ディスプレイ508は二次元平面なので閲覧領域Tのままでは表示装置30が表示できない。
The coordinates of a three-dimensional point (x, y, z) corresponding to an arbitrary point (λ, φ) in equirectangular projection can be obtained by the following equation, assuming that the radius of the sphere is 1.0.
X = cos (φ) * cos (λ)
Y = sin (φ) (1)
Z = cos (φ) * sin (λ)
Thus, a three-dimensional omnidirectional image CE is obtained from the omnidirectional image CE of equirectangular projection. Since the omnidirectional image CE is an image pasted so as to cover the spherical surface, it is curved and has a sense of incongruity when viewed by humans. Therefore, the display device 30 displays a part of the viewing area T of the omnidirectional image CE as a flat image P with a small curvature so as not to give a sense of incongruity to humans. The browsing area T is indicated by coordinates (X, Y, Z) in a three-dimensional virtual space. On the other hand, since the display 508 is a two-dimensional plane, the display device 30 cannot display the viewing area T as it is.
そこで、3Dコンピュータグラフィックの技法を用いて三次元の物体を二次元平面に投影する透視投影変換により、表示装置30は湾曲の少ない画像を得る。以上のようにして、全天球画像CEの閲覧領域Tがディスプレイ508に表示される。 Therefore, the display device 30 obtains an image with less curvature by perspective projection conversion in which a three-dimensional object is projected onto a two-dimensional plane using a 3D computer graphic technique. As described above, the viewing area T of the omnidirectional image CE is displayed on the display 508.
図10は、ユーザUの視線を説明する図の一例である。全天球画像CEは三次元の座標を有しているので、視線方向は三次元の座標や緯度・経度などの球体の座標を特定する情報で特定される。本実施形態では、閲覧領域Tの中心cpを視線方向とする。 FIG. 10 is an example of a diagram illustrating the line of sight of the user U. Since the omnidirectional image CE has three-dimensional coordinates, the line-of-sight direction is specified by information specifying the coordinates of the sphere such as three-dimensional coordinates and latitude / longitude. In the present embodiment, the center cp of the viewing area T is the line-of-sight direction.
ユーザUはキーボード511又はマウス512により視線方向を変えることができるが、仮想カメラICが平行移動しないと仮定すると、仮想カメラICは剛体としてロール(Z軸を中心とする回転)、ヨー(Y軸を中心とする回転)、及びピッチ(X軸を中心とする回転)の3つの回転が可能である。この3つの回転のいずれが生じても視線方向が変化する。例えば、ユーザUが全天球画像CEを水平方向に回転させるとヨー角が変化し、上下方向に回転させるとピッチ角が変化し、ディスプレイ508の中心を軸に全天球画像CEを回転させるとロール角が変化する。本実施形態では、ユーザUのWebページに対する操作が、視線方向(ロール角、ヨー角、ピッチ角)等に反映される。どのように反映されるかは表示装置30が実行するプログラムに予め記述されている。 Although the user U can change the line-of-sight direction with the keyboard 511 or the mouse 512, assuming that the virtual camera IC does not translate, the virtual camera IC is rolled as a rigid body (rotation about the Z axis), yaw (Y axis) Rotation around the X axis) and pitch (rotation around the X axis) are possible. The line-of-sight direction changes regardless of which of these three rotations occurs. For example, when the user U rotates the omnidirectional image CE in the horizontal direction, the yaw angle changes. When the user U rotates it in the vertical direction, the pitch angle changes, and the omnidirectional image CE is rotated about the center of the display 508. And roll angle changes. In the present embodiment, the operation of the user U on the Web page is reflected in the line-of-sight direction (roll angle, yaw angle, pitch angle) and the like. How it is reflected is described in advance in a program executed by the display device 30.
図11は、全天球画像CEの閲覧領域Tの拡大と縮小を模式的に説明する図の一例である。図11(a)は初期の閲覧領域Tを示す。仮想カメラICが立体球CSの中央に存在する場合、閲覧領域Tは画角αにより決定される。画角αは、例えば閲覧領域Tの対角頂点を立体球CSの中央から臨む角度である。 FIG. 11 is an example of a diagram schematically illustrating enlargement and reduction of the viewing area T of the omnidirectional image CE. FIG. 11A shows an initial browsing area T. FIG. When the virtual camera IC exists in the center of the solid sphere CS, the viewing area T is determined by the angle of view α. The angle of view α is an angle at which the diagonal vertex of the viewing area T faces the center of the solid sphere CS, for example.
初期状態の画角αをα0とする。図11(b)に示すように画角を小さくすれば(α1<α0)閲覧領域Tが狭くなるのでディスプレイ508上では画像が拡大され、図11(c)に示すように、画角を大きくすれば(α2>α0)閲覧領域Tが広くなるのでディスプレイ508上では画像が縮小される。ユーザUが全天球画像CEを拡大する操作又は縮小の操作を行うと、表示装置30は操作量に応じて画角を小さくしたり大きくしたりする。 The angle of view α in the initial state is α0. If the angle of view is reduced as shown in FIG. 11B (α1 <α0), the viewing area T becomes narrower, so the image is enlarged on the display 508, and the angle of view is increased as shown in FIG. 11C. Then (α2> α0), the viewing area T becomes wide, so that the image is reduced on the display 508. When the user U performs an operation for enlarging or reducing the omnidirectional image CE, the display device 30 decreases or increases the angle of view according to the operation amount.
図11(c)のように画角が大きくなったとしても、仮想カメラICが中央にある限り、仮想カメラICの後方にある画像を表示装置30が表示することができない。このため、ユーザUが図11(c)の状態から更に縮小する操作を行うと、表示装置30は仮想カメラICを後方に移動する。図11(d)では画角α2は図11(c)と変わっていないが、仮想カメラICが後方に移動することで、閲覧領域Tが更に広くなっている。このため、図11(c)よりも更に画像を縮小することが可能である。 Even if the angle of view increases as shown in FIG. 11C, as long as the virtual camera IC is in the center, the display device 30 cannot display an image behind the virtual camera IC. Therefore, when the user U performs an operation of further reducing from the state of FIG. 11C, the display device 30 moves the virtual camera IC backward. In FIG. 11 (d), the angle of view α2 is not different from that in FIG. 11 (c), but the viewing area T is further expanded by moving the virtual camera IC backward. For this reason, it is possible to further reduce the image as compared with FIG.
<全天球画像CEへの平面画像Pの重畳に関する機能>
図12〜図17を用いて、全天球画像CEへの平面画像Pの重畳に関する機能について説明する。上記のように、図3(b)の構成を念頭に説明する。
<Function related to superimposition of planar image P on omnidirectional image CE>
The function regarding the superimposition of the planar image P on the omnidirectional image CE will be described with reference to FIGS. As described above, the configuration of FIG. 3B will be described in mind.
図12は、デジタルカメラ9、全天球カメラ20、及び表示装置30が有する機能をブロック状に示す機能ブロック図の一例である。デジタルカメラ9は平面画像取得部11を有している。平面画像取得部11はデジタルカメラ9の撮像機能により実現され、所定の解像度の画素がそれぞれ濃淡を表す画像データ(平面画像P)を作成する。平面画像Pは1つの静止画、複数の静止画、又は動画のいずれでもよいが、本実施形態において断らない限り動画であるとする。 FIG. 12 is an example of a functional block diagram showing the functions of the digital camera 9, the omnidirectional camera 20, and the display device 30 in a block shape. The digital camera 9 has a planar image acquisition unit 11. The planar image acquisition unit 11 is realized by the imaging function of the digital camera 9, and creates image data (planar image P) in which each pixel of a predetermined resolution represents light and shade. The planar image P may be one still image, a plurality of still images, or a moving image, but is assumed to be a moving image unless otherwise specified in the present embodiment.
全天球カメラ20は全天球画像取得部12を有している。全天球画像取得部12は全天球カメラ20の撮像機能により実現され、全天球カメラ20の周囲360度の画像データ(全天球画像CE)を作成する。全天球画像CEは、1つの静止画、複数の静止画、又は動画のいずれでもよいが、本実施形態において断らない限り静止画であるとする。 The omnidirectional camera 20 has an omnidirectional image acquisition unit 12. The omnidirectional image acquisition unit 12 is realized by the imaging function of the omnidirectional camera 20, and creates 360 degree image data (omnidirectional image CE) around the omnidirectional camera 20. The omnidirectional image CE may be one still image, a plurality of still images, or a moving image, but is assumed to be a still image unless otherwise specified in the present embodiment.
表示装置30は、主に、位置パラメータ作成部8、及び変換表示部7を有している。表示装置30が有するこれらの機能は、図5に示した表示装置30のCPU501がHD504からRAM503に展開されたプログラムを実行することで実現される機能又は手段である。 The display device 30 mainly includes a position parameter creation unit 8 and a conversion display unit 7. These functions of the display device 30 are functions or means realized by the CPU 501 of the display device 30 illustrated in FIG. 5 executing a program expanded from the HD 504 to the RAM 503.
位置パラメータ作成部8は、更に全天球画像読込部21、平面画像読込部22、位置パラメータ算出部23、及び位置パラメータ書出部24を有する。全天球画像読込部21は、全天球画像取得部12から全天球画像CEを読み込む。平面画像読込部22は、平面画像取得部11から平面画像Pを読み込む。読み込むとは、取得する、受信する、記憶媒体から読み出す、又は、入力を受け付けるという意味である。 The position parameter creation unit 8 further includes an omnidirectional image reading unit 21, a planar image reading unit 22, a position parameter calculation unit 23, and a position parameter writing unit 24. The omnidirectional image reading unit 21 reads the omnidirectional image CE from the omnidirectional image acquisition unit 12. The planar image reading unit 22 reads the planar image P from the planar image acquisition unit 11. Reading means acquiring, receiving, reading from a storage medium, or receiving input.
位置パラメータ算出部23は、平面画像Pと一致する全天球画像CEの一致領域を特定し、一致領域を特定するための位置パラメータPPを求める。位置パラメータPPの詳細は図13にて説明される。正距円筒図法により全天球画像CEは歪んだ状態になるため、平面画像Pにも同じ変換を施し、歪んだ状態にすることが好ましい。そして、両方の特徴点を抽出しマッチングを行うことで、位置パラメータPPを求めることができる。特徴点の検出については、エッジ検出、コーナ検出、SIFT特徴量とSURF特徴量、連続した同一色の中心点など様々な検出方法が知られている。あるいは、全天球画像CEと平面画像Pの画素値の差の絶対値の合計又は差の二乗和を1画素ずつずらして算出し、絶対値の合計又は二乗和が最も小さくなった時の平面画像Pの位置を一致領域としてもよい。 The position parameter calculation unit 23 specifies the matching area of the omnidirectional image CE that matches the planar image P, and obtains the position parameter PP for specifying the matching area. Details of the position parameter PP will be described with reference to FIG. Since the omnidirectional image CE is distorted by the equirectangular projection, it is preferable that the flat image P is subjected to the same conversion to be distorted. Then, the position parameter PP can be obtained by extracting both feature points and performing matching. For detection of feature points, various detection methods such as edge detection, corner detection, SIFT feature amount and SURF feature amount, and continuous central points of the same color are known. Alternatively, the sum of the absolute values of the difference between the pixel values of the omnidirectional image CE and the planar image P or the sum of squares of the differences is calculated by shifting one pixel at a time, and the plane when the sum of the absolute values or the sum of squares becomes the smallest The position of the image P may be the matching area.
本実施形態では全天球画像CEが静止画、平面画像Pが動画であるため、ある時刻のフレーム(動画に含まれる各静止画)しか全天球画像CEと一致しない。位置パラメータ算出部23は平面画像Pの最初のフレームから順番に全天球画像とマッチングを行う。そして、一致度が閾値以上のフレームに基づいて位置パラメータPPを算出する。あるいは、ユーザUが一致するフレームを表示装置30に指示してよい。この全天球画像CEと一致するフレームのフレームID6を位置パラメータ書出部24が変換表示部7に通知する。なお、IDはIdentificationの略であり識別子や識別情報という意味である。IDは複数の対象から、ある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち1つ以上の組み合わせをいう。フレームID以外のIDについても同様である。 In this embodiment, since the omnidirectional image CE is a still image and the planar image P is a moving image, only a frame at a certain time (each still image included in the moving image) matches the omnidirectional image CE. The position parameter calculation unit 23 performs matching with the omnidirectional image in order from the first frame of the planar image P. Then, the position parameter PP is calculated based on a frame having a matching degree equal to or greater than a threshold. Alternatively, the display device 30 may be instructed by the user U of the matching frame. The position parameter writing unit 24 notifies the conversion display unit 7 of the frame ID 6 of the frame that matches the omnidirectional image CE. Note that ID is an abbreviation of Identification and means an identifier or identification information. ID refers to a name, a code, a character string, a numerical value, or a combination of one or more of these used to uniquely distinguish a specific target from a plurality of targets. The same applies to IDs other than the frame ID.
また、平面画像Pをメッシュ状に領域分割してそれぞれで全天球画像CEとマッチングをすれば、レンズ歪等によるずれ補正も加味することができる。 Further, if the planar image P is divided into a mesh area and matched with the omnidirectional image CE, it is possible to take into account deviation correction due to lens distortion or the like.
全天球画像CEと平面画像Pの対応は一意に定まるので位置パラメータPPは、一度、求めるだけでよい。平面画像読込部22が複数の平面画像Pを読み込んだ場合、平面画像Pごとに位置パラメータPPを算出する。 Since the correspondence between the omnidirectional image CE and the planar image P is uniquely determined, the position parameter PP need only be obtained once. When the planar image reading unit 22 reads a plurality of planar images P, the position parameter PP is calculated for each planar image P.
変換表示部7は、更に平面画像読込部25、視線方向画角指示部26、全天球画像読込部27、射影方式変換部1(符号は28)、射影方式変換部2(符号は29)、画像重畳部33、位置パラメータ読込部32、及び画像表示部31を有する。全天球画像読込部27の機能は位置パラメータ作成部8と同様である。また、位置パラメータ読込部32は位置パラメータ作成部8から位置パラメータPPとフレームIDを取得する。 The conversion display unit 7 further includes a planar image reading unit 25, a line-of-sight direction angle-of-view instruction unit 26, an omnidirectional image reading unit 27, a projection method conversion unit 1 (reference numeral 28), and a projection method conversion unit 2 (reference numeral 29). The image superimposing unit 33, the position parameter reading unit 32, and the image display unit 31. The function of the omnidirectional image reading unit 27 is the same as that of the position parameter creating unit 8. Further, the position parameter reading unit 32 acquires the position parameter PP and the frame ID from the position parameter creating unit 8.
平面画像読込部25は平面画像Pの各フレームを読み込む。後述する画像重畳部33が動画読込ONを平面画像読込部25に通知するまでは、位置パラメータ算出部23が指示したフレームIDのフレームを読み込む。画像重畳部33が動画読込ONを平面画像読込部25に通知した後は、動画の再生速度に応じて時間的に後のフレーム(逆再生の場合は前のフレーム)を読み込む。画像重畳部33が動画読込OFFを平面画像読込部25に通知した場合、フレームIDのフレーム又は最後に読み取ったフレームを繰り返し読み込む。 The planar image reading unit 25 reads each frame of the planar image P. Until the later-described image superimposing unit 33 notifies the planar image reading unit 25 of the moving image reading ON, the frame with the frame ID instructed by the position parameter calculating unit 23 is read. After the image superimposing unit 33 notifies the planar image reading unit 25 that the moving image reading is ON, the subsequent frame in time (the previous frame in the case of reverse reproduction) is read according to the reproduction speed of the moving image. When the image superimposing unit 33 notifies the plane image reading unit 25 that moving image reading is OFF, the frame ID frame or the last read frame is repeatedly read.
視線方向画角指示部26は、ユーザUが操作した視線方向と画角(拡大・縮小)を受け付ける。視線方向と画角が操作により入力されるため閲覧領域Tが定まる。 The line-of-sight direction angle-of-view instruction unit 26 receives the line-of-sight direction and the angle of view (enlargement / reduction) operated by the user U. The viewing area T is determined because the line-of-sight direction and the angle of view are input by operation.
また、ユーザUが任意に視線方向と画角(拡大・縮小)を操作するため、射影方式変換された平面画像Pの一部のみしか閲覧領域Tに入らない場合、又は、射影方式変換された平面画像Pが全く閲覧領域Tに入らない場合がある。このため、射影方式変換部1は、射影方式変換画像のうち閲覧領域Tに含まれている領域を示すマスクデータを生成する。詳細は図14にて説明される。 In addition, since the user U arbitrarily operates the line-of-sight direction and the angle of view (enlargement / reduction), only a part of the planar image P that has undergone the projection method conversion enters the viewing area T, or the projection method has been converted. The planar image P may not enter the browsing area T at all. For this reason, the projection method conversion unit 1 generates mask data indicating a region included in the browsing region T in the projection method conversion image. Details will be described with reference to FIG.
射影方式変換部2は、視線方向画角指示部26が受け付けた視線方向及び画角に対応する閲覧領域Tを決定し、読み込まれた全天球画像CEの閲覧領域Tに対し画像表示部31の表示サイズに合わせた透視投影変換を行い、表示画像を作成する。従って、表示画像は二次元平面の画像である。 The projection method conversion unit 2 determines the viewing area T corresponding to the viewing direction and the viewing angle received by the viewing direction view angle instruction unit 26, and the image display unit 31 for the viewing area T of the read omnidirectional image CE. Perspective projection conversion according to the display size is performed to create a display image. Therefore, the display image is a two-dimensional plane image.
画像重畳部33は、マスクデータを用いて表示画像に射影方式変換画像を重畳して重畳画像を生成する。詳細は図15にて説明される。また、画像表示部31は重畳画像をディスプレイ508に表示する。 The image superimposing unit 33 generates a superimposed image by superimposing the projection method conversion image on the display image using the mask data. Details will be described with reference to FIG. The image display unit 31 displays the superimposed image on the display 508.
<位置パラメータ>
図13は平面画像Pの一致領域への射影方式変換及び平面画像Pと一致領域とを対応付ける位置パラメータPPの一例を示す図である。マッチングによりすでに平面画像Pと全天球画像CEの対応は得られているものとする。位置パラメータPPは、特徴点が最も一致した時に平面画像Pが存在する全天球画像CEの緯度と経度である。
<Position parameter>
FIG. 13 is a diagram showing an example of the projection method conversion to the matching area of the planar image P and the position parameter PP for associating the planar image P with the matching area. It is assumed that correspondence between the planar image P and the omnidirectional image CE has already been obtained by matching. The position parameter PP is the latitude and longitude of the omnidirectional image CE where the planar image P exists when the feature points are the best match.
図13(a)は平面画像Pを示し、図13(b)は正距円筒図法の全天球画像CEを示す。図13(b)には一致領域301が示されている。位置パラメータ算出部23は、平面画像Pを格子状に分割して、それぞれ格子の交点部分の座標(x,y)に対応する全天球画像CEの一致領域301の点(λ,φ)を位置パラメータPPとする。なお、λは経度、φは緯度である。図13(c)は位置パラメータPPの一例を示す。平面画像Pの格子の座標と、全天球画像CEの一致領域301の緯度と経度が格子ごとに対応付けられている。 FIG. 13A shows a planar image P, and FIG. 13B shows an omnidirectional image CE of equirectangular projection. FIG. 13B shows a matching area 301. The position parameter calculation unit 23 divides the planar image P into a grid pattern, and calculates the point (λ, φ) of the coincidence region 301 of the omnidirectional image CE corresponding to the coordinates (x, y) of the intersection of the grids. It is assumed that the position parameter PP. Note that λ is longitude and φ is latitude. FIG. 13C shows an example of the position parameter PP. The coordinates of the grid of the planar image P and the latitude and longitude of the matching area 301 of the omnidirectional image CE are associated with each grid.
<射影方式変換部1の処理>
図14は、射影方式変換部1が作成する射影方式変換画像302とマスクデータ303を説明する図の一例である。図14(a)は射影方式変換画像302を示す。射影方式変換画像302は正距円筒図法で表された全天球画像の閲覧領域Tと同じサイズの領域を有し、一致領域301に射影方式変換後の平面画像Pが貼り付けられる。一致領域301に平面画像Pが射影方式変換されることで、平面画像Pは台形歪みの状態になっている。射影方式変換画像302のうち平面画像Pがない部分はグレーの均一画像307である。均一画像307は重畳に使用されないのでどのような画素値でもよい。
<Processing of Projection Method Conversion Unit 1>
FIG. 14 is an example of a diagram illustrating a projection method conversion image 302 and mask data 303 created by the projection method conversion unit 1. FIG. 14A shows a projection method conversion image 302. The projection system conversion image 302 has an area having the same size as the viewing area T of the omnidirectional image represented by the equirectangular projection, and the planar image P after the projection system conversion is pasted on the matching area 301. The planar image P is in a trapezoidal distortion state by the projection system conversion of the planar image P to the coincidence area 301. A portion where the planar image P is not present in the projection system converted image 302 is a gray uniform image 307. Since the uniform image 307 is not used for superposition, any pixel value may be used.
図14(b)は図14(a)の平面画像Pに対応するマスクデータ303を示す。マスクデータ303は図14(a)から閲覧領域Tに含まれる平面画像Pを取り出すためのデータである。マスクデータの白画素の領域は、閲覧領域Tかつ平面画像Pの領域を示す。従って、マスクデータの白画素の領域は平面画像Pの領域以下となる。図14(b)のマスクデータは、閲覧領域Tが平面画像Pより大きい場合であるため、図14(a)の例では一致領域301がマスクデータ303の白画素の領域とほぼ等しくなっている。閲覧領域Tが平面画像Pと全く重ならない場合、マスクデータは全面が黒画素になる。閲覧領域Tが平面画像Pより小さい場合、マスクデータ303は白画素のみになる。このようにマスクデータ303の白画素と一致領域301は常に同じサイズ及び同じ位置になる。 FIG. 14B shows mask data 303 corresponding to the planar image P of FIG. The mask data 303 is data for extracting the planar image P included in the viewing area T from FIG. The white pixel area of the mask data indicates the browsing area T and the plane image P area. Therefore, the white pixel area of the mask data is equal to or smaller than the area of the planar image P. In the mask data of FIG. 14B, when the viewing area T is larger than the planar image P, the matching area 301 is almost equal to the white pixel area of the mask data 303 in the example of FIG. . When the viewing area T does not overlap the flat image P at all, the entire mask data is black pixels. When the viewing area T is smaller than the planar image P, the mask data 303 is only white pixels. Thus, the white pixel and the matching area 301 of the mask data 303 are always the same size and the same position.
画像重畳部33は射影方式変換画像302とマスクデータ303でマスク処理を行う。このマスク処理は、マスクデータ303の白画素に対応する画素を射影方式変換画像302から取り出す処理である。画像重畳部33は、射影方式変換画像302から白画素の位置の画素値を取り出して、表示画像の射影方式変換画像302と同じ位置に重畳する。 The image superimposing unit 33 performs a mask process using the projection method converted image 302 and the mask data 303. This mask process is a process for extracting pixels corresponding to white pixels of the mask data 303 from the projection method conversion image 302. The image superimposing unit 33 extracts the pixel value at the position of the white pixel from the projection method conversion image 302 and superimposes it on the same position as the projection method conversion image 302 of the display image.
なお、マスクデータ303の黒画素と白画素の境界は、白画素から黒画素に向けて徐々に白から黒に変化する傾斜が設けられることが好適である。これにより、低解像度の全天球画像CEと高解像度の平面画像Pとの境界を目立たなくすることができる。 The boundary between the black pixel and the white pixel in the mask data 303 is preferably provided with a slope that gradually changes from white to black from the white pixel to the black pixel. Thereby, the boundary between the low-resolution spherical image CE and the high-resolution planar image P can be made inconspicuous.
<画像重畳部の処理>
図15を用いて画像重畳部33の処理について説明する。図15は、全天球画像CEへの平面画像Pの重畳を模式的に説明する図の一例である。図15に示すように、射影方式変換部2が閲覧領域Tを透視投影変換した表示画像304、射影方式変換画像302(図14(a))、及びマスクデータ303(図14(b))が画像重畳部33に入力される。
<Processing of image superimposing unit>
The process of the image superimposing unit 33 will be described with reference to FIG. FIG. 15 is an example of a diagram schematically illustrating the superimposition of the planar image P on the omnidirectional image CE. As shown in FIG. 15, a display image 304 obtained by perspective projection conversion of the viewing area T by the projection method conversion unit 2, a projection method conversion image 302 (FIG. 14A), and mask data 303 (FIG. 14B). Input to the image superimposing unit 33.
画像重畳部33はより画角が広い射影方式変換画像302を表示画像304に重畳する。マスクデータ303を使ったマスク処理により、マスクデータ303の白画素の画素位置の射影方式変換画像302を取り出して表示画像304に上書きする(この場合は、この時点で表示画像304の画素が損失される。)。このようにして重畳画像305には、低解像度の全天球画像CEに高解像度の平面画像Pが配置される。 The image superimposing unit 33 superimposes the projection method conversion image 302 having a wider angle of view on the display image 304. By the mask processing using the mask data 303, the projection method conversion image 302 at the pixel position of the white pixel in the mask data 303 is taken out and overwritten on the display image 304 (in this case, the pixels of the display image 304 are lost at this time). ) In this way, in the superimposed image 305, the high-resolution planar image P is arranged on the low-resolution omnidirectional image CE.
あるいは、透明なレイヤを用意して、マスクデータ303の白画素の画素位置の射影方式変換画像302を取り出して透明なレイヤに配置してもよい。この場合、表示画像304に損失はなく、例えばユーザUが平面画像Pの表示と非表示を切り替えることができる。 Alternatively, a transparent layer may be prepared, and the projection method conversion image 302 at the pixel position of the white pixel in the mask data 303 may be taken out and placed in the transparent layer. In this case, there is no loss in the display image 304, and for example, the user U can switch between display and non-display of the planar image P.
画像重畳部33は重畳画像305を出力する。重畳画像305には、低解像度の全天球画像CEに高解像度の平面画像Pが配置されている。 The image superimposing unit 33 outputs a superimposed image 305. In the superimposed image 305, a high-resolution planar image P is arranged on a low-resolution omnidirectional image CE.
なお、本実施形態では重畳の方法にも特徴がある。説明したように表示装置30は全天球画像CEの透視投影変換と平面画像Pの重畳を並行に行う。仮に、全天球画像CEに平面画像Pを貼り付けてから透視投影変換を行うと、全天球画像CEの解像度を平面画像Pと同じにする必要があり、データ量が大きくなってしまう。本実施形態では表示画像304が作成されてから平面画像Pが重畳されているので、データ量が大きくなることを抑制できる。 In this embodiment, the superimposing method is also characterized. As described above, the display device 30 performs the perspective projection conversion of the omnidirectional image CE and the superimposition of the planar image P in parallel. If the perspective projection conversion is performed after the planar image P is pasted on the omnidirectional image CE, the resolution of the omnidirectional image CE needs to be the same as that of the planar image P, and the amount of data increases. In the present embodiment, since the planar image P is superimposed after the display image 304 is created, an increase in the data amount can be suppressed.
表示装置30は、全天球画像CEと平面画像Pの重畳を、ディスプレイ508の表示サイクル(例えば、1秒間に30〜60回)で繰り返す。こうすることで、表示装置30は平面画像Pと全天球画像CEを1つずつ保持しておき、ユーザUの操作に応じた視点でリアルタイムに重畳画像305を生成できる。また、動画を再生できる。 The display device 30 repeats the superimposition of the omnidirectional image CE and the planar image P in the display cycle of the display 508 (for example, 30 to 60 times per second). By doing so, the display device 30 can hold the planar image P and the omnidirectional image CE one by one, and generate the superimposed image 305 in real time from the viewpoint according to the operation of the user U. In addition, a moving image can be reproduced.
<全天球画像CEにおける平面画像P>
図16は、全天球画像CEに重畳された平面画像Pを模式的に示す図である。上記のように、平面画像Pは平面のまま表示画像304と重畳されるため、図16のように、平面画像Pが立体球CSに貼り付けられることはない。しかし、ユーザUから見ると、図16に示すように、全天球画像CEと同じ中心位置、同じ半径の球体の一部に平面画像Pが重畳されたように見える。
<Plane image P in the spherical image CE>
FIG. 16 is a diagram schematically illustrating a planar image P superimposed on the omnidirectional image CE. As described above, since the planar image P is superimposed on the display image 304 as it is, the planar image P is not pasted on the solid sphere CS as shown in FIG. However, when viewed from the user U, as shown in FIG. 16, it appears that the planar image P is superimposed on a part of a sphere having the same center position and the same radius as the omnidirectional image CE.
なお、図16のように、三次元の全天球画像CEに平面画像Pが重畳されてもよい。マッチングにより(位置パラメータPPにより)平面画像Pが対応する経度と緯度が分かるので式(1)により表示装置30は全天球に平面画像Pを貼り付けられる。この場合、奥行き情報を使った陰面消去法(いわゆるZバッファ法)等は用いず、後優先でレンダリングするとよい。 In addition, as shown in FIG. 16, the planar image P may be superimposed on the three-dimensional omnidirectional image CE. Since the longitude and latitude corresponding to the planar image P can be known by matching (by the position parameter PP), the display device 30 can paste the planar image P on the celestial sphere according to Expression (1). In this case, the hidden surface removal method using the depth information (so-called Z buffer method) or the like is not used, and rendering may be performed with priority.
平面画像Pが複数ある場合、位置パラメータ算出部23がそれぞれの平面画像Pに対して位置パラメータPPを算出すれば、同様に重畳できる。この場合、レンダリングの順番は広角画像を先にして、望遠を後とすることで同じ画素数のデジタルカメラ9で撮像された場合、解像度が高い平面画像Pの上に、解像度の低い平面画像Pが覆いかぶさることを回避できる。 In the case where there are a plurality of plane images P, if the position parameter calculation unit 23 calculates the position parameters PP for the respective plane images P, they can be superimposed in the same manner. In this case, when the image is captured by the digital camera 9 having the same number of pixels with the wide-angle image first and the telephoto later, the lower-resolution planar image P is placed on the higher-resolution planar image P. Can be avoided.
<重畳手順>
図17は、表示装置30が全天球画像CEに平面画像Pを重畳する手順を示すフローチャート図の一例である。図17の処理は、ユーザが重畳を指示すること等によりスタートされる。ステップS10〜S30とS40〜S60は並行的に実行されるが、順番に実行されてもよい。
<Superposition procedure>
FIG. 17 is an example of a flowchart illustrating a procedure in which the display device 30 superimposes the planar image P on the omnidirectional image CE. The process in FIG. 17 is started when the user gives an instruction to superimpose. Steps S10 to S30 and S40 to S60 are executed in parallel, but may be executed in order.
平面画像読込部22は平面画像Pを読み込む(S10)。全天球画像読込部21は全天球画像CEを読み込む(S20)。そして、位置パラメータ算出部23は位置パラメータPPを算出する(S30)。 The planar image reading unit 22 reads the planar image P (S10). The omnidirectional image reading unit 21 reads the omnidirectional image CE (S20). Then, the position parameter calculation unit 23 calculates the position parameter PP (S30).
平面画像読込部25は平面画像Pを読み込む(S40)。全天球画像読込部27は全天球画像CEを読み込む(S50)。また、視線方向画角指示部26は視線方向と画角を受け付ける(S60)。ステップS60は随時行われる。 The planar image reading unit 25 reads the planar image P (S40). The omnidirectional image reading unit 27 reads the omnidirectional image CE (S50). The line-of-sight direction angle-of-view instruction unit 26 receives the line-of-sight direction and the angle of view (S60). Step S60 is performed as needed.
次に、射影方式変換部1は位置パラメータPPで平面画像Pに射影方式変換を施し、射影方式変換画像302を生成する(S70)。 Next, the projection method conversion unit 1 performs the projection method conversion on the plane image P with the position parameter PP, and generates the projection method conversion image 302 (S70).
次に、射影方式変換部1は視線方向と画角で定まる閲覧領域T及び射影方式変換された平面画像P(一致領域)に応じてマスクデータ303を生成する(S80)。 Next, the projection method conversion unit 1 generates mask data 303 according to the viewing area T determined by the line-of-sight direction and the angle of view and the planar image P (coincidence region) converted by the projection method (S80).
次に、射影方式変換部2は、閲覧領域Tに応じて全天球画像CEを透視投影変換し、表示画像304を生成する(S90)。 Next, the projection method conversion unit 2 performs perspective projection conversion of the omnidirectional image CE according to the viewing area T, and generates a display image 304 (S90).
次に、画像重畳部33はマスクデータを用いて射影方式変換画像302と表示画像304を重畳し、重畳画像305を生成する(S100)。 Next, the image superimposing unit 33 superimposes the projection method conversion image 302 and the display image 304 using the mask data, and generates a superimposed image 305 (S100).
次に、画像表示部31は重畳画像305を表示する(S110)。表示装置30は図17のステップS60〜S110の処理を繰り返す。 Next, the image display unit 31 displays the superimposed image 305 (S110). The display device 30 repeats the processing of steps S60 to S110 in FIG.
<動画の再生に関する機能>
次に、図18〜図23を用いて、全天球画像CEに重畳された平面画像Pの再生に関する機能について説明する。図18は、画像重畳部33の機能をブロック状に説明する機能ブロック図の一例である。画像重畳部33は、更に判断部35と画像切替部36を有している。判断部35は、ユーザUが重畳画像305に重畳された平面画像Pを見ると推定されるか否かを判断し、判断結果を画像切替部36に送出する。画像切替部36は判断結果に応じて動画読込ON又は動画読込OFFを平面画像読込部25に通知する。
<Functions related to video playback>
Next, functions relating to the reproduction of the planar image P superimposed on the omnidirectional image CE will be described with reference to FIGS. FIG. 18 is an example of a functional block diagram illustrating the function of the image superimposing unit 33 in a block shape. The image superimposing unit 33 further includes a determination unit 35 and an image switching unit 36. The determination unit 35 determines whether it is estimated that the user U sees the planar image P superimposed on the superimposed image 305, and sends the determination result to the image switching unit 36. The image switching unit 36 notifies the planar image reading unit 25 of moving image reading ON or moving image reading OFF according to the determination result.
<動画の再生の判断について>
上記のようにユーザUが重畳画像305に重畳された平面画像Pを見ることが推定された場合、表示装置30は動画の再生を開始する。具体的には、以下の3つの条件(i)〜(iii)が動画を再生する判断基準となる。
(i) 現在の閲覧領域Tの画角に対し平面画像Pが占める画角の比率が所定以上になった場合
(ii) 平面画像Pの領域が所定の画角以上となった場合
(iii) ユーザUが平面画像Pをクリックした場合
なお、見ることが推定されるとは、実際にユーザUが見る他、見る可能性がある旨を含む。また、(iii)の条件をユーザUの閲覧のための操作に伴って、動画を再生すると称してもよい。
<About judgment of video playback>
When it is estimated that the user U sees the planar image P superimposed on the superimposed image 305 as described above, the display device 30 starts reproducing the moving image. Specifically, the following three conditions (i) to (iii) are criteria for reproducing a moving image.
(i) When the ratio of the angle of view occupied by the planar image P to the angle of view of the current viewing area T is greater than a predetermined value
(ii) When the area of the planar image P exceeds a predetermined angle of view
(iii) When User U Clicks Plane Image P Note that the estimation of viewing includes the fact that the user U may actually see and possibly see. In addition, the condition (iii) may be referred to as reproducing a moving image in accordance with an operation for browsing by the user U.
まず「(i)現在の閲覧領域Tの画角に対し平面画像Pが占める比率が所定以上になった場合」の判断方法について説明する。 First, a determination method of “(i) the case where the ratio of the planar image P to the angle of view of the current viewing area T exceeds a predetermined value” will be described.
図19は、閲覧領域Tに対する平面画像Pの相対位置を説明する図の一例である。図19(a)では、閲覧領域Tに平面画像Pの全体が含まれている。閲覧領域Tはディスプレイ508に表示されている全天球画像の領域なので、ユーザUはほぼ正面から平面画像Pを見ている。閲覧領域の画角をa、平面画像Pの画角をbとすると、画角a>画角bであれば、平面画像Pの全体と全天球画像CEの一部が見えていることになる。図19(a)のような状況であれば、ユーザUが平面画像Pを見たいと推定される。 FIG. 19 is an example of a diagram illustrating the relative position of the planar image P with respect to the viewing area T. In FIG. 19A, the entire planar image P is included in the viewing area T. Since the viewing area T is the area of the omnidirectional image displayed on the display 508, the user U is viewing the planar image P almost from the front. If the viewing angle of the viewing area is a and the viewing angle of the planar image P is b, if the viewing angle a> the viewing angle b, the entire planar image P and a part of the omnidirectional image CE are visible. Become. In the situation as shown in FIG. 19A, it is estimated that the user U wants to see the planar image P.
しかし、平面画像Pに対して全天球画像CEの方がある程度大きい場合、ユーザUが平面画像Pを見たいとは判断しなくてよい。そこで、判断部35は、例えば画角aが画角bの1.2倍以下であるか否かを判断する。すなわち、画角aが画角bの1.2倍以下の場合、現在の画角に対し平面画像Pが占める画角の比率が所定以上になったと判断する。画像切替部36は動画再生要求ONを平面画像読込部25に送出する。画像切替部36は、画角aが画角bの1.2倍より大きいと判断された場合、動画再生要求OFFを平面画像読込部25に送出する。 However, when the omnidirectional image CE is somewhat larger than the planar image P, the user U does not have to determine that he / she wants to view the planar image P. Therefore, the determination unit 35 determines whether, for example, the angle of view a is 1.2 times or less of the angle of view b. That is, when the angle of view a is 1.2 times or less of the angle of view b, it is determined that the ratio of the angle of view occupied by the planar image P to the current angle of view is greater than or equal to a predetermined value. The image switching unit 36 sends a moving image reproduction request ON to the planar image reading unit 25. When it is determined that the angle of view a is larger than 1.2 times the angle of view b, the image switching unit 36 sends a moving image reproduction request OFF to the planar image reading unit 25.
閲覧領域Tは既知である。また、位置パラメータPPに平面画像Pの緯度・経度が登録されているので、画角bは位置パラメータPPから求められる。詳細は図20、図21で説明する。 The browsing area T is known. Further, since the latitude and longitude of the planar image P are registered in the position parameter PP, the angle of view b can be obtained from the position parameter PP. Details will be described with reference to FIGS.
図19(b)では、閲覧領域Tの方が平面画像Pより狭くなっている。すなわち、ユーザUは平面画像Pのみを見ている。この場合は、画角aが画角bの1.2倍以下なので、当然ながら動画が再生される。 In FIG. 19B, the viewing area T is narrower than the planar image P. That is, the user U sees only the planar image P. In this case, since the angle of view a is 1.2 times or less than the angle of view b, a moving image is naturally reproduced.
図19(c)では、平面画像Pの上方のみが閲覧領域Tになっている。つまり、ユーザUは平面画像Pの上方を見ている。しかし、閲覧領域Tが平面画像Pに完全に含まれているので(画角aが画角bの1.2倍以下)、画像切替部36は動画再生要求ONを送出する。 In FIG. 19 (c), only the upper side of the planar image P is the viewing area T. That is, the user U is looking above the planar image P. However, since the viewing area T is completely included in the planar image P (the angle of view a is 1.2 times or less of the angle of view b), the image switching unit 36 sends a moving image reproduction request ON.
また、図19(d)では、閲覧領域Tの中心と平面画像Pの中心とのずれ(角度)が大きくなり、閲覧領域Tの一部が平面画像Pをはみ出している。この場合、閲覧領域Tに対し平面画像Pが小さいので(画角aが画角bの1.2倍より大きい)、画像切替部36は動画再生要求OFF送出する。 In FIG. 19D, the deviation (angle) between the center of the viewing area T and the center of the planar image P is large, and a part of the viewing area T protrudes from the planar image P. In this case, since the planar image P is smaller than the viewing area T (the angle of view a is greater than 1.2 times the angle of view b), the image switching unit 36 sends the moving image reproduction request OFF.
なお、動画を再生するか否かの閾値を1.2倍としたのは一例であって、1.0より大きい値であればよい。例えば、1.1〜1.5倍等のように決定できる。また、ユーザUが閾値を設定できてもよい。 It should be noted that the threshold value for determining whether or not to play a moving image is 1.2 times as an example, and may be a value larger than 1.0. For example, it can be determined as 1.1 to 1.5 times. Moreover, the user U may be able to set a threshold value.
図20は、画角aと画角bの求め方を説明する図の一例である。画角aはユーザUが操作により決定する閲覧領域Tにより求められる。仮想カメラICから閲覧領域Tまでの距離をf、閲覧領域Tの対角線の長さを2Lとすると、画角αと、距離f、及びLには式(2)の関係がある。
Lf=tan(α/2)…(2)
閲覧領域Tの対角頂点の座標はユーザUが操作したことで分かっているので、対角線の長さ2Lは容易に算出できる。距離fについては全天球の半径、又は、ユーザUが操作したことで分かっている。従って、式(2)により画角αを算出できる。
FIG. 20 is an example of a diagram for explaining how to obtain the angle of view a and the angle of view b. The angle of view a is obtained from the viewing area T determined by the user U by operation. When the distance from the virtual camera IC to the viewing area T is f and the length of the diagonal line of the viewing area T is 2L, the angle of view α, the distance f, and L have the relationship of Expression (2).
Lf = tan (α / 2) (2)
Since the coordinates of the diagonal vertices of the viewing area T are known by the operation of the user U, the diagonal length 2L can be easily calculated. The distance f is known from the radius of the celestial sphere or that the user U has operated. Therefore, the angle of view α can be calculated by the equation (2).
画角bも同様に算出できるが、画角bは閲覧領域Tに平面画像Pが一部でも含まれている場合に算出されればよい。図21は閲覧領域Tと平面画像Pの関係を示す図である。判断部35は、平面画像Pが閲覧領域Tに入っているか否かを4つの頂点のそれぞれで判断する。閲覧領域Tの4つの頂点をA1〜A4、平面画像Pの4つの頂点をB1〜B4とする。頂点B1〜B4は例えば全天球の経度や緯度で特定されるが、ディスプレイ508上の座標で特定されてもよい。 The angle of view b can be calculated in the same manner, but the angle of view b may be calculated when the viewing area T includes even a portion of the planar image P. FIG. 21 is a diagram showing the relationship between the viewing area T and the planar image P. The determination unit 35 determines whether each of the four vertices determines whether the planar image P is in the viewing area T. The four vertices of the viewing area T are A1 to A4, and the four vertices of the planar image P are B1 to B4. The vertices B1 to B4 are specified by, for example, the longitude and latitude of the omnidirectional sphere, but may be specified by coordinates on the display 508.
例えば、頂点B1については以下のように判断される。 For example, the vertex B1 is determined as follows.
頂点A1の経度≦頂点B1の経度≦頂点A2の経度、かつ、
頂点A1の緯度≧頂点B1の緯度≦頂点A4の緯度
頂点B2、B3、B4についても同様に判断できる。対角の頂点(B1とB3、B2とB4)が閲覧領域Tに入っていれば、位置パラメータPPから式(2)により画角bを算出できる。図21に示すように平面画像Pの頂点B1〜B4の全てが閲覧領域Tに入っていない場合、閲覧領域Tに入っている頂点B1から閲覧領域Tの頂点A3により画角bを算出する。頂点B1の対角頂点が頂点A3であること、頂点B2の対角頂点が頂点A4であること、頂点B3の対角頂点が頂点A1であること、頂点B4の対角頂点が頂点A2であることは表示装置30に設定されている。
The longitude of vertex A1 ≦ the longitude of vertex B1 ≦ the longitude of vertex A2, and
It can be similarly determined for the latitude of the vertex A1 ≧ the latitude of the vertex B1 ≦ the latitude vertices B2, B3, and B4 of the vertex A4. If the diagonal vertices (B1 and B3, B2 and B4) are in the viewing area T, the angle of view b can be calculated from the position parameter PP according to equation (2). As shown in FIG. 21, when all of the vertices B <b> 1 to B <b> 4 of the planar image P are not in the browsing area T, the angle of view b is calculated from the vertex B <b> 1 in the browsing area T by the vertex A <b> 3 of the browsing area T. The diagonal vertex of vertex B1 is vertex A3, the diagonal vertex of vertex B2 is vertex A4, the diagonal vertex of vertex B3 is vertex A1, and the diagonal vertex of vertex B4 is vertex A2. This is set in the display device 30.
<表示例>
図22は、ユーザUが全天球画像CEを拡大することで再生が開始される平面画像Pの例を説明する図である。図22(a)では閲覧領域Tに小さく平面画像Pが含まれている。図22(a)の状態では画角aが画角bの1.2倍より大きいため、動画は再生されない。
<Display example>
FIG. 22 is a diagram illustrating an example of a planar image P that is reproduced by the user U enlarging the omnidirectional image CE. In FIG. 22A, a small planar image P is included in the viewing area T. In the state of FIG. 22A, since the angle of view a is larger than 1.2 times the angle of view b, a moving image is not reproduced.
図22(b)では、画角aが画角bの1.2倍以下となったため、動画の再生が始まる。図22(c)から図22(e)まで全天球画像CEは拡大されていないため、同じ構図(画角)である。しかし、動画が再生されるためモノレールの列車351が右から左に徐々に移動する。 In FIG. 22B, since the angle of view a is 1.2 times or less of the angle of view b, the reproduction of the moving image starts. Since the omnidirectional image CE is not enlarged from FIG. 22C to FIG. 22E, it has the same composition (angle of view). However, since the moving image is reproduced, the monorail train 351 gradually moves from right to left.
つまりユーザUが全天球画像CEを拡大させ平面画像Pの比率が閾値以上になると、自動的に動画の再生が始まり、ユーザUは動画により状況を把握しやすい(動きのある画像を楽しむことができる。)。また、ユーザUが平面画像Pを拡大していくと動画の再生が始まるので、急に画面が動き始めるように見え、ユーザUの注意を引くことができる。 That is, when the user U enlarges the celestial sphere image CE and the ratio of the planar image P becomes equal to or greater than the threshold, the reproduction of the moving image automatically starts, and the user U can easily grasp the situation by the moving image (enjoy the moving image) Can do that.) In addition, since the reproduction of the moving image starts when the user U enlarges the planar image P, the screen suddenly starts to move, and the user U's attention can be drawn.
<動作手順>
図23は、表示装置30が動画を再生するか否かを制御する手順を示すフローチャート図の一例である。図23の手順は、表示装置30が全天球画像CEを表示するとスタートする。すでに、全天球画像CEに平面画像Pが重畳されているものとする。
<Operation procedure>
FIG. 23 is an example of a flowchart illustrating a procedure for controlling whether or not the display device 30 reproduces a moving image. The procedure of FIG. 23 starts when the display device 30 displays the omnidirectional image CE. It is assumed that the planar image P has already been superimposed on the omnidirectional image CE.
判断部35は、閲覧領域Tが変更されたか否か、又は、マウス操作されたか否かを判断する(S210)。閲覧領域Tが変更されるとは、ユーザUが視線方向を変更するか、拡大、又は、縮小の操作を行ったことをいう。具体的には、視線方向画角指示部26が、ユーザUの操作を視線方向と画角に変更して画像重畳部33に送出する。また、単にマウス操作されたか否かを判断してもよい。これにより、閲覧領域Tが変更されなくても何らかのマウスイベントを契機にステップS220以降の処理が進行する。 The determination unit 35 determines whether the viewing area T has been changed or whether the mouse has been operated (S210). The browsing area T being changed means that the user U has changed the line-of-sight direction, or has performed an enlargement or reduction operation. Specifically, the line-of-sight direction angle-of-view instruction unit 26 changes the operation of the user U to the line-of-sight direction and the angle of view and sends it to the image superimposing unit 33. Further, it may be determined whether or not the mouse is simply operated. Thereby, even if the browsing area T is not changed, the processing after step S220 proceeds with some mouse event as a trigger.
画像重畳部33は、視線方向と画角によって閲覧領域Tを特定する(S220)。すなわち、全天球画像CEのうち閲覧領域Tに対応する緯度と経度の範囲が特定される。 The image superimposing unit 33 identifies the viewing area T based on the viewing direction and the angle of view (S220). That is, the latitude and longitude ranges corresponding to the viewing area T in the omnidirectional image CE are specified.
次に、判断部35は閲覧領域Tに平面画像Pの一部でも入っているか否かを判断する(S230)。全く入っていない場合は動画を再生する必要がないので処理はステップS290に進む。 Next, the determination unit 35 determines whether or not a part of the planar image P is included in the viewing area T (S230). If there is no entry at all, there is no need to reproduce the moving image, so the process proceeds to step S290.
閲覧領域Tに一部でも平面画像Pが入っている場合(S230のYes)、判断部35は平面画像Pの画角bを算出する(S240)。また、閲覧領域の画角aを算出する(S250)。 If at least a part of the planar image P is included in the viewing area T (Yes in S230), the determination unit 35 calculates the angle of view b of the planar image P (S240). Also, the viewing angle a of the viewing area is calculated (S250).
そして、判断部35は画角aと画角bの比率a/bと閾値1.2を比較して、比率a/bが閾値1.2より大きいか否かを判断する(S260)。 Then, the determination unit 35 compares the ratio a / b between the angle of view a and the angle of view b with the threshold value 1.2, and determines whether the ratio a / b is larger than the threshold value 1.2 (S260).
ステップS260の判断がYesの場合(1.2の閾値より大きい場合)、ユーザUが平面画像Pを見ると推定されないので、画像切替部36は動画読込OFFを平面画像読込部25に通知する(S270)。 When the determination in step S260 is Yes (when it is greater than the threshold value of 1.2), since it is not estimated that the user U views the planar image P, the image switching unit 36 notifies the planar image reading unit 25 of moving image reading OFF ( S270).
ステップS260の判断がNoの場合(1.2の閾値以下の場合)、ユーザUが平面画像Pを見ると推定されるので、画像切替部36は動画読込ONを平面画像読込部25に通知する(S280)。 If the determination in step S260 is No (when the threshold value is equal to or smaller than the threshold value of 1.2), it is estimated that the user U views the planar image P. Therefore, the image switching unit 36 notifies the planar image reading unit 25 of the moving image reading ON. (S280).
画像表示部31は、全天球画像CEに動画又は静止画として平面画像Pが重畳された重畳画像305をディスプレイ508に表示する(S290)。ステップS230でNoと判断された場合は、平面画像Pは重畳されない。 The image display unit 31 displays the superimposed image 305 in which the planar image P is superimposed as a moving image or a still image on the omnidirectional image CE on the display 508 (S290). If it is determined No in step S230, the planar image P is not superimposed.
以上の処理によれば、ユーザUが平面画像Pを大きく表示すれば動画を再生でき、別の場所を閲覧すれば動画を停止できる。動画の再生時に、動画の再生をユーザUが制御するメニューを画像表示部31が表示させ、ユーザUの操作で動画の停止、再生、巻き戻し、早送り、等を受け付けてもよい。 According to the above process, the moving image can be reproduced if the user U displays the planar image P in a large size, and the moving image can be stopped if the user U browses another place. When the moving image is reproduced, the image display unit 31 may display a menu for the user U to control the reproduction of the moving image, and the user U may accept the stop, reproduction, rewind, fast forward, and the like of the moving image.
図24は、ユーザが動画再生を操作するメニュー(UI:User Interface)の一例を示す図である。図24のメニュー200は、再生ボタン201、一時停止ボタン202、停止ボタン203、早送りボタン206、早戻しボタン205、次動画ボタン207、及び、前動画ボタン204を有する。この他、繰り返し再生ボタン等を有していてもよい。次動画ボタン207、及び、前動画ボタン204は、平面画像Pが複数の動画を有する場合に有効になる。なお、各ボタンのデザインは一例に過ぎない。 FIG. 24 is a diagram illustrating an example of a menu (UI: User Interface) on which a user operates to play a moving image. The menu 200 in FIG. 24 includes a play button 201, a pause button 202, a stop button 203, a fast forward button 206, a fast reverse button 205, a next moving image button 207, and a previous moving image button 204. In addition, a replay button or the like may be provided. The next moving image button 207 and the previous moving image button 204 are effective when the planar image P has a plurality of moving images. The design of each button is just an example.
図24のようなメニュー200は、動画の再生時、かつ、ユーザが動画再生領域をクリックした場合、又は、動画の再生が終了した場合、などに表示されてよい。 The menu 200 as shown in FIG. 24 may be displayed when a moving image is reproduced and when the user clicks on the moving image reproduction area, or when reproduction of the moving image ends.
最後まで平面画像Pの動画の再生が終了すると、平面画像読込部25はフレームの最初から平面画像Pの読み込みを繰り返してもよいし、平面画像Pの読み込みを終了してもよい。 When the reproduction of the moving image of the planar image P is completed to the end, the planar image reading unit 25 may repeat reading of the planar image P from the beginning of the frame or may end reading of the planar image P.
<(ii)の判断方法>
次に、「(ii) 平面画像Pの領域が所定の画角以上となった場合」の判断方法について説明する。この判断は実質的に(i)と同様であり、ユーザUが平面画像Pを大きく表示した場合は、平面画像Pを見たいと推定するという考え方に基づく。判断方法は、図21にて説明したように、平面画像Pの頂点B1〜B4の座標を用いればよい。また、この座標が透視投影変換されたディスプレイ508上の座標を用いて判断してもよい。
<Judgment method of (ii)>
Next, a determination method of “(ii) When the area of the planar image P is equal to or larger than a predetermined angle of view” will be described. This determination is substantially the same as (i), and is based on the idea that when the user U displays the planar image P in a large size, it is estimated that he / she wants to see the planar image P. The determination method may use the coordinates of the vertices B1 to B4 of the planar image P as described with reference to FIG. Alternatively, the coordinates may be determined using coordinates on the display 508 obtained by perspective projection conversion.
また、画角の比率ではなく、平面画像の中心と閲覧領域Tの中心との距離が閾値未満になった時に平面画像Pを見たいと推定してもよい。閾値は、一例として閲覧領域Tの画角の1/4など閲覧領域Tの数分の一とする。 Alternatively, it may be estimated that the user wants to view the planar image P when the distance between the center of the planar image and the center of the viewing area T is less than the threshold, instead of the angle of view. As an example, the threshold value is a fraction of the viewing area T, such as 1/4 of the angle of view of the viewing area T.
図25は、表示装置30が動画を再生するか否かを制御する手順を示すフローチャート図の一例である。図25の説明では主に図23との相違を説明する。図25では閲覧領域Tの画角aを判断部35が算出する必要がないので、ステップS250は不要になる。 FIG. 25 is an example of a flowchart illustrating a procedure for controlling whether or not the display device 30 reproduces a moving image. In the description of FIG. 25, differences from FIG. 23 are mainly described. In FIG. 25, since the determination unit 35 does not need to calculate the angle of view a of the viewing area T, step S250 is not necessary.
また、ステップS260−2では、判断部35は画角bが閾値Thより大きいか否かを判断する。ステップS260−2でNoと判断される場合(画角bが閾値以下の場合)、ユーザUが平面画像Pを見ると推定されないので、画像切替部36は動画読込OFFを平面画像読込部25に通知する(S270)。 In step S260-2, the determination unit 35 determines whether or not the angle of view b is larger than the threshold value Th. When it is determined No in step S260-2 (when the angle of view b is equal to or smaller than the threshold), it is not estimated that the user U views the planar image P. Therefore, the image switching unit 36 sets the moving image reading OFF to the planar image reading unit 25. Notification is made (S270).
ステップS260−2でYesと判断される場合(画角bが閾値より大きい場合)、ユーザUが平面画像Pを見ると推定されるので、画像切替部36は動画読込ONを平面画像読込部25に通知する(S280)。 When it is determined Yes in step S260-2 (when the angle of view b is larger than the threshold value), it is estimated that the user U views the planar image P. Therefore, the image switching unit 36 sets the moving image reading ON to the planar image reading unit 25. (S280).
閾値Thは例えば、ユーザUが対象を認識できる程度の画素数に対応する画角である。一般的なディスプレイ508の画素数を768×1024とすると例えば500画素数に対応する画角などに決定できる。こうすることで、平面画像Pがある程度大きく写っている場合に動画を再生できる。 The threshold Th is, for example, an angle of view corresponding to the number of pixels that allows the user U to recognize the target. If the number of pixels of a general display 508 is 768 × 1024, the angle of view corresponding to the number of 500 pixels can be determined. By doing so, a moving image can be reproduced when the planar image P is captured to a certain extent.
<(iii)の判断方法>
次に、「(iii) ユーザUが平面画像Pをクリックした場合」の判断方法について説明する。ユーザUが平面画像Pをクリックした場合、ユーザUが平面画像Pを見たいことが明らかになるので、(i)(ii)の条件を満たしていなくても、動画を再生すべきと考えられる。なお、タッチパネルを備えた機器に表示される場合には平面画像Pがタッチされた場合に同様の動作を行う。また、ユーザUが平面画像Pを見たいことが明らかなので、射影方式変換部2が平面画像Pを閲覧領域Tの全面に表示すれば、平面画像Pが正面になるようにユーザUが操作する必要がなくなり便利である。具体的には図22(a)の平面画像PをユーザUがクリックすることで、図22(a)から図22(b)へ閲覧領域Tを変えるような表示方法である。このような表示方法を平面画像Pの自動拡大と称して説明する。
<Judgment method of (iii)>
Next, a determination method of “(iii) When the user U clicks the planar image P” will be described. When the user U clicks on the planar image P, it becomes clear that the user U wants to view the planar image P, so that it is considered that a movie should be played even if the conditions (i) and (ii) are not satisfied. . In addition, when displaying on the apparatus provided with the touch panel, the same operation | movement is performed when the plane image P is touched. Further, since it is clear that the user U wants to view the planar image P, if the projection method conversion unit 2 displays the planar image P on the entire surface of the viewing area T, the user U operates so that the planar image P is in front. It is not necessary and convenient. Specifically, the display method changes the viewing area T from FIG. 22A to FIG. 22B when the user U clicks the planar image P in FIG. Such a display method will be described as automatic enlargement of the planar image P.
図26を用いて平面画像Pの自動拡大について説明する。図26は、閲覧領域Tへの平面画像Pの自動拡大の処理を説明する図の一例である。平面画像Pにマウスカーソル311が重なった状態でユーザUがクリックしたものとする。タッチパネルの場合は、ユーザUが指で平面画像Pをタップすることが相当する。マウスカーソルやタッチパネルをポインティングデバイスという。以下では説明を簡単にするため、マウスカーソル311を例にして説明する。 The automatic enlargement of the planar image P will be described with reference to FIG. FIG. 26 is an example of a diagram illustrating a process of automatically expanding the planar image P to the browsing area T. It is assumed that the user U clicks in a state where the mouse cursor 311 is overlapped with the planar image P. In the case of a touch panel, it corresponds to the user U tapping the planar image P with a finger. A mouse cursor or touch panel is called a pointing device. Hereinafter, in order to simplify the description, the mouse cursor 311 will be described as an example.
視線方向画角指示部26はマウスカーソル311がクリックされたディスプレイ508上の座標を全天球画像CEの三次元座標に変換する。この変換は、透視投影変換と逆の変換に相当する。判断部35は、マウスカーソル311の三次元座標を緯度・経度に変換して、マウスカーソル311の座標が平面画像Pに含まれるか否かを判断する。判断は以下のように行う。 The line-of-sight direction angle-of-view instruction unit 26 converts the coordinates on the display 508 where the mouse cursor 311 is clicked into the three-dimensional coordinates of the omnidirectional image CE. This conversion corresponds to a conversion opposite to the perspective projection conversion. The determination unit 35 converts the three-dimensional coordinates of the mouse cursor 311 into latitude and longitude, and determines whether or not the coordinates of the mouse cursor 311 are included in the plane image P. Judgment is made as follows.
頂点B1の経度≦マウスカーソルの座標の経度≦頂点B2の経度、かつ、
頂点B1の緯度≧マウスカーソルの座標の緯度≦頂点B4の緯度
判断部35は、マウスカーソル311の座標が平面画像Pに含まれている場合、平面画像Pがクリックされたと判断する。
Longitude of vertex B1 ≦ longitude of coordinates of mouse cursor ≦ longitude of vertex B2, and
The latitude of the vertex B1 ≧ the latitude of the coordinates of the mouse cursor ≦ the latitude of the vertex B4 When the coordinates of the mouse cursor 311 are included in the planar image P, the determination unit 35 determines that the planar image P has been clicked.
この場合、画像表示部31は平面画像Pを自動拡大する。射影方式変換部2は、平面画像Pを徐々に拡大して閲覧領域Tに一致させる画像処理を行う。具体的には、頂点A1と頂点B1を結ぶ線312、頂点A2と頂点B2を結ぶ線312、頂点A3と頂点B3を結ぶ線312、頂点A4と頂点B4を結ぶ線312、をそれぞれ等間隔に補間する。図26では線312が4分割されている。補間により得られた線312上の補間点をP1i〜P4iとする(iは1〜4の整数)。 In this case, the image display unit 31 automatically enlarges the planar image P. The projection method conversion unit 2 performs image processing for gradually enlarging the planar image P to match the viewing area T. Specifically, a line 312 connecting the vertex A1 and the vertex B1, a line 312 connecting the vertex A2 and the vertex B2, a line 312 connecting the vertex A3 and the vertex B3, and a line 312 connecting the vertex A4 and the vertex B4 are equally spaced. Interpolate. In FIG. 26, the line 312 is divided into four. Interpolation points on the line 312 obtained by the interpolation are P1i to P4i (i is an integer of 1 to 4).
平面画像Pを自動拡大する処理は閲覧領域Tの画角aを小さくする処理である。射影方式変換部2は、補間点P13・P23・P33・P43を結ぶ領域に閲覧領域Tを縮小する(画角aを小さくする)。次に、補間点P12・P22・P32・P42を結ぶ領域に閲覧領域Tを縮小する。次に、補間点P11・P21・P31・P41を結ぶ領域に閲覧領域Tを縮小する。次に、平面画像Pの頂点B1・B2・B3・B4を結ぶ領域に閲覧領域Tを縮小する。 The process of automatically enlarging the planar image P is a process of reducing the angle of view a of the viewing area T. The projection method conversion unit 2 reduces the viewing area T to an area connecting the interpolation points P13, P23, P33, and P43 (decreases the angle of view a). Next, the viewing area T is reduced to an area connecting the interpolation points P12, P22, P32, and P42. Next, the viewing area T is reduced to an area connecting the interpolation points P11, P21, P31, and P41. Next, the viewing area T is reduced to an area connecting the vertices B1, B2, B3, and B4 of the planar image P.
このような画像処理により、ユーザUには平面画像Pが徐々に大きくなるように見える。閲覧領域Tに対し透視投影変換が行われディスプレイ508の全面(表示用のソフトウェアの全面)に表示されるため、ユーザUには平面画像Pが大きく見える。 By such image processing, it seems to the user U that the planar image P gradually increases. Since the perspective projection conversion is performed on the viewing area T and displayed on the entire surface of the display 508 (the entire surface of the display software), the user U can see the planar image P large.
なお、閲覧領域Tに平面画像Pの全体が含まれていない場合も同様に自動拡大できる。図27は、閲覧領域Tに平面画像Pの全体が含まれていない場合の平面画像Pの自動拡大の処理を説明する図の一例である。図27では、平面画像Pの頂点B4しか閲覧領域Tに入っていない。しかし、平面画像Pの頂点B1〜B3の座標は閲覧領域Tに表示されていないだけで既知であるため、図26と同様に自動拡大できる。 In addition, even when the entire planar image P is not included in the browsing area T, it can be automatically enlarged similarly. FIG. 27 is an example of a diagram illustrating the process of automatically enlarging the planar image P when the entire planar image P is not included in the browsing area T. In FIG. 27, only the vertex B4 of the planar image P is in the viewing area T. However, since the coordinates of the vertices B1 to B3 of the planar image P are known only by not being displayed in the viewing area T, they can be automatically enlarged as in FIG.
<動作手順>
図28は、表示装置30が動画を再生するか否かを判断する手順を示すフローチャート図の一例である。なお、図28の説明では主に図23との相違を説明する。
<Operation procedure>
FIG. 28 is an example of a flowchart illustrating a procedure for determining whether or not the display device 30 reproduces a moving image. In the description of FIG. 28, differences from FIG. 23 are mainly described.
ステップS210、S220の処理は図23と同様でよい。次に、判断部35は平面画像Pがクリックされたか否かを判断する(S222)。ステップS222の判断がNoの場合、以降の処理は図23と同様である。 The processing in steps S210 and S220 may be the same as in FIG. Next, the determination unit 35 determines whether or not the planar image P is clicked (S222). If the determination in step S222 is No, the subsequent processing is the same as in FIG.
ステップS222の判断がYesの場合、画像切替部36は動画読込ONを平面画像読込部25に通知する(S224)。これにより動画再生ありと判断される。 When the determination in step S222 is Yes, the image switching unit 36 notifies the plane image reading unit 25 that the moving image reading is ON (S224). As a result, it is determined that there is moving image reproduction.
そして、射影方式変換部2は平面画像Pを自動拡大する(S226)。以上の処理により、ユーザUは平面画像Pが正面になるように操作する必要がなくなる。 Then, the projection method conversion unit 2 automatically enlarges the planar image P (S226). With the above processing, the user U does not need to operate so that the planar image P is in front.
なお、平面画像Pをクリックした場合に動画を再生するか否かはユーザUが設定できることが好ましい。動画を再生させた後、ユーザUが別の場所を表示させステップS260の条件を満たすようになると動画を停止できる。この場合も動画の表示時に動作用のメニューが表示されてよい。 In addition, it is preferable that the user U can set whether to reproduce a moving image when the planar image P is clicked. After the moving image is reproduced, the moving image can be stopped when the user U displays another place and satisfies the condition of step S260. In this case as well, an operation menu may be displayed when a moving image is displayed.
<平面画像Pが静止画、全天球画像CEが動画の場合>
本実施例では平面画像Pを動画、全天球画像CEを静止画として説明したが、平面画像Pが静止画、全天球画像CEが動画でも同様の処理で実現できる。この場合、全天球画像読込部27が全天球画像の動画のフレームを読み出せばよい。例えば、美術館の館内の全天球画像を表示装置30が表示する際、絵画は平面画像Pで用意され、館内の全体が撮像された全天球画像CEが動画で用意される。平面画像Pには入場者が写っていないのでユーザUは平面画像Pを拡大して閲覧すると共に、全天球画像CEの入場者が移動する様子などから雰囲気を把握しやすい。
<When the planar image P is a still image and the omnidirectional image CE is a moving image>
In the present embodiment, the planar image P is assumed to be a moving image and the omnidirectional image CE is assumed to be a still image. However, the same processing can be realized even if the planar image P is a still image and the omnidirectional image CE is a moving image. In this case, the omnidirectional image reading unit 27 may read the moving image frame of the omnidirectional image. For example, when the display device 30 displays an omnidirectional image in a museum hall, a picture is prepared as a flat image P, and an omnidirectional image CE in which the entire hall is imaged is prepared as a moving image. Since the attendees are not shown in the planar image P, the user U can enlarge and browse the planar image P and can easily grasp the atmosphere from the manner in which the attendees of the omnidirectional image CE move.
この場合、上記(i)〜(iii)の条件が満たされるまで全天球画像は動画として表示され、(i)〜(iii)の条件が満たされると静止画として表示される。これにより、ユーザUが平面画像Pを大きく表示させると全天球画像が静止画になるので見やすくなる。 In this case, the omnidirectional image is displayed as a moving image until the conditions (i) to (iii) are satisfied, and is displayed as a still image when the conditions (i) to (iii) are satisfied. Thereby, when the user U displays the planar image P in a large size, the omnidirectional image becomes a still image, so that it is easy to see.
また、平面画像Pと全天球画像CEの両方が動画でもよい。この場合は、上記(i)〜(iii)の条件が満たされるまで全天球画像CEと平面画像Pは動画として表示され、(i)〜(iii)の条件が満たされると全天球画像CEと平面画像Pが静止画として表示される。これにより、ユーザUが平面画像Pを大きく表示させると全天球画像CEが静止画になるので見やすくなる。 Further, both the planar image P and the omnidirectional image CE may be moving images. In this case, the omnidirectional image CE and the planar image P are displayed as moving images until the conditions (i) to (iii) are satisfied, and the omnidirectional image is displayed when the conditions (i) to (iii) are satisfied. CE and planar image P are displayed as still images. Thereby, when the user U displays the planar image P in a large size, the omnidirectional image CE becomes a still image so that it is easy to see.
<動画再生のメタデータ>
図24ではメニュー200によりユーザが動画の再生を操作できると説明したが、動画の再生に関するメタデータがあれば表示装置30がメタデータに従って動画を再生できる。動画再生のメタデータとはどのように動画を再生するかを指定するデータである。
<Video playback metadata>
In FIG. 24, it has been described that the user can operate the reproduction of the moving image by using the menu 200. However, if there is metadata regarding the reproduction of the moving image, the display device 30 can reproduce the moving image according to the metadata. Video playback metadata is data that specifies how to play back a video.
図29は、動画再生のメタデータを説明する図の一例である。動画再生のメタデータは再生開始時刻、再生終了時刻、再生方向、再生速度、繰返し有無、繰返し回数、繰返し方法、及び、停止後の状態を含む。適宜、図29(a)〜図29(c)を参照して説明する。
・再生開始時刻
図29(a)に示すように、動画の再生を動画の最初からではなく途中から再生するためのパラメータである。時刻又はフレーム番号で指定される。再生開始時刻が指定されない場合の初期値はゼロに設定される。
・再生終了時刻
動画の再生を最後までではなく途中で終了するためのパラメータである。時刻又はフレーム番号で指定される。再生開始時刻が指定されない場合の初期値は動画の長が設定される。動画再生時刻と動画終了時刻は動画ファイルの一部だけを再生したい場合に指定される。実際に再生される動画は再生開始時刻から再生終了時刻の間となる。
・再生方向
動画再生開始時の再生方向を示す。正方向又は逆方向がある。
・再生速度
スロー再生、早送り再生のためのパラメータである。通常の再生速度は1.0であり、1未満(例えば、0.5)だとスロー再生、1より大きい(例えば2.0)と早送り再生である。
・繰返し有無
動画再生時に再生を繰り返すか否かを指定するパラメータである。図29(b)では先頭から後尾まで繰返し再生される様子が示されている。繰り返しが無しの場合、先頭から始まって後尾まで再生したら動画の再生は終了する。再生方向が逆方向で繰返し無しなら後尾から先頭まで再生したら動画の再生は終了する。
・繰返し回数
動画の再生の繰返しの回数である。指定回数繰り返したら動画の再生は終了する。繰返し回数には無限に相当する回数の設定が可能であり、この場合は停止条件が成立するまで動画が繰返し再生される。
・繰返し方法
繰返して再生する際の再生方法を指定するパラメータである。ループ再生、交互再生がある。ループ再生は同じ方向に再生することであり、交互再生は図29(c)に示すように1回の再生ごとに再生方向を反転することをいう。ループ再生及び交互再生のいずれも再生方向が逆再生の場合は再生方向が逆になる。
・停止後の状態
動画の再生が停止した時の状態を指定するパラメータである。そのまま、先頭(逆方向再生の場合は後尾)、及び、透明の状態がある。
FIG. 29 is an example of a diagram for explaining metadata of moving image reproduction. Video playback metadata includes playback start time, playback end time, playback direction, playback speed, presence / absence of repetition, number of repetitions, repetition method, and state after stop. This will be described with reference to FIGS. 29 (a) to 29 (c) as appropriate.
Playback start time As shown in FIG. 29 (a), this is a parameter for playing a moving image from the middle instead of from the beginning. It is specified by time or frame number. The initial value when the playback start time is not specified is set to zero.
-Playback end time This is a parameter for ending the playback of a movie halfway rather than the end. It is specified by time or frame number. The initial value when the playback start time is not specified is the length of the moving image. The movie playback time and movie end time are specified when only a part of the movie file is to be played. The actually reproduced moving image is between the reproduction start time and the reproduction end time.
-Playback direction Indicates the playback direction at the start of video playback. There are forward and reverse directions.
• Playback speed slow playback and fast forward playback parameters. The normal playback speed is 1.0, and when it is less than 1 (for example, 0.5), it is slow playback, and when it is greater than 1 (for example, 2.0), fast-forward playback.
-Repetition presence / absence This parameter specifies whether or not to repeat the reproduction when reproducing the video. FIG. 29B shows a state in which reproduction is repeated from the head to the tail. If there is no repetition, playback of the video ends when playback starts from the beginning to the end. If the playback direction is the reverse direction and there is no repetition, playback of the moving image ends when playback from the tail to the beginning is performed.
-Number of repetitions This is the number of repetitions of video playback. When the specified number of times is repeated, the video playback ends. An infinite number of repetitions can be set as the number of repetitions. In this case, the moving image is repeatedly reproduced until a stop condition is satisfied.
-Repeat method This parameter specifies the playback method for repeated playback. There are loop playback and alternate playback. Loop playback is playback in the same direction, and alternate playback refers to reversing the playback direction for each playback as shown in FIG. 29 (c). In both loop playback and alternate playback, when the playback direction is reverse playback, the playback direction is reversed.
-State after stop This parameter specifies the state when playback of the video stops. As it is, there are a head (the tail in the case of reverse playback) and a transparent state.
従って、全天球画像にメタデータが添付されることで、画像重畳サーバ70が表示装置30における動画の再生を制御できる。 Therefore, by attaching metadata to the omnidirectional image, the image superimposing server 70 can control the reproduction of the moving image on the display device 30.
図3(c)のように、画像重畳サーバ70と表示装置30が通信する構成では、画像重畳サーバ70又は表示装置30の少なくとも一方が位置パラメータと共にメタデータを保存できる。 As shown in FIG. 3C, in the configuration in which the image superimposing server 70 and the display device 30 communicate with each other, at least one of the image superimposing server 70 or the display device 30 can store metadata together with the position parameter.
<まとめ>
以上説明したように、本実施例の表示装置30によれば、ユーザが平面画像Pを見ると推定されると動画が再生されるので、ユーザが平面画像Pを見たい場合に動画を再生でき、不要な動画の再生を抑制できる。また、ユーザは動画を最初から閲覧できる。また、ユーザが平面画像Pを拡大していくと動画の再生が始まるので、急に画面が動き始めるように見え、ユーザの注意を引くことができる。
<Summary>
As described above, according to the display device 30 of the present embodiment, a moving image is reproduced when it is estimated that the user views the planar image P. Therefore, when the user wants to view the planar image P, the moving image can be reproduced. , Unnecessary video playback can be suppressed. In addition, the user can view the moving image from the beginning. In addition, since the reproduction of the moving image starts when the user enlarges the planar image P, it seems that the screen suddenly starts moving, and the user's attention can be drawn.
本実施例では平面画像Pが存在する旨を示す枠を平面画像Pと共に全天球画像CEに表示する表示装置30について説明する。本実施例において、実施例1で同一の符号を付して説明した構成要素については、同様の機能を果たすので、一度説明した構成要素の説明を省略あるいは相違点についてのみ説明する場合がある。 In the present embodiment, a display device 30 that displays a frame indicating that the planar image P exists together with the planar image P on the omnidirectional image CE will be described. In the present embodiment, the constituent elements described with the same reference numerals in the first embodiment perform the same functions, and therefore, description of the constituent elements once described may be omitted or only differences may be described.
平面画像Pが全天球画像CEのどこに重畳されているかわかりにくい場合がある。また、静止画の平面画像Pも重畳されている場合、ユーザUが動画と静止画のどちらの平面画像Pかを判断しにくい。そこで、平面画像Pが存在する旨を示す枠40を画像重畳部33が表示することが有効である。また、動画と静止画で枠40の態様を変更すれば、ユーザUは枠40をみて動画か静止画かを判断できる。 It may be difficult to understand where the planar image P is superimposed on the omnidirectional image CE. In addition, when the still image planar image P is also superimposed, it is difficult for the user U to determine which of the moving image and the still image is the planar image P. Therefore, it is effective that the image superimposing unit 33 displays the frame 40 indicating that the planar image P exists. If the mode of the frame 40 is changed between the moving image and the still image, the user U can determine whether the moving image is a still image or not by looking at the frame 40.
動画及び静止画の平面画像Pは全天球画像CEよりも高画質であり、ユーザUが全天球画像CEを拡大して平面画像Pを大きく表示させると、より高画質(例えば高解像度)の画像を閲覧できる。 The moving image and the still image planar image P have higher image quality than the omnidirectional image CE, and when the user U enlarges the omnidirectional image CE and displays the larger planar image P, the image quality becomes higher (for example, higher resolution). You can view images.
枠40は、平面画像Pの射影方式変換と同様に表示することができる。射影方式変換部1が平面画像Pの外縁の矩形を射影方式変換すれば枠40が得られる。射影方式変換部1は、位置パラメータPPで平面画像Pを射影方式変換する場合と同様に外縁の矩形を射影方式変換する。 The frame 40 can be displayed in the same manner as the projection method conversion of the planar image P. If the projection method conversion unit 1 performs the projection method conversion of the rectangle at the outer edge of the planar image P, the frame 40 is obtained. The projection method conversion unit 1 performs the projection method conversion of the rectangle at the outer edge in the same manner as the case where the planar image P is subjected to the projection method conversion using the position parameter PP.
図30は、射影方式変換により得られた枠40を模式的に説明する図の一例である。射影方式変換部1は、正距円筒図法の全天球画像CEと同じサイズ(画素数)の透明レイヤ308を用意しておく。このレイヤに平面画像Pの外縁の矩形321を射影方式変換する。なお、位置パラメータPPでx=0.5、−0.5又はy=0.5、−0.5の値を持つ格子の緯度と経度に枠40となる点線を描画してもよい。 FIG. 30 is an example of a diagram schematically illustrating the frame 40 obtained by the projection method conversion. The projection system conversion unit 1 prepares a transparent layer 308 having the same size (number of pixels) as the omnidirectional image CE of equirectangular projection. The rectangle 321 at the outer edge of the planar image P is converted into a projection system for this layer. It should be noted that a dotted line serving as the frame 40 may be drawn at the latitude and longitude of the lattice having the values x = 0.5, −0.5 or y = 0.5, −0.5 with the position parameter PP.
射影方式変換部1は動画と静止画により枠40の態様を変える。例えば、動画の場合は赤、静止画の場合は青などのように色を変える。また、動画の場合は実線、静止画の場合は点線などのように線種を変えてもよい。線の太さを変えてもよい。枠40の近くに動画か静止画かを文字で表示してもよい。なお、平面画像読込部25は平面画像Pが動画なのか静止画なのかを射影方式変換部1に通知する。動画又は静止画の区別は例えばファイルの拡張子(jpegは静止画、mpegは動画)により判断してもよいし、平面画像Pのファイル名から判断してもよい。 The projection method conversion unit 1 changes the mode of the frame 40 according to a moving image and a still image. For example, the color is changed to red for a moving image and blue for a still image. In addition, the line type may be changed such as a solid line in the case of a moving image and a dotted line in the case of a still image. You may change the thickness of the line. A moving image or a still image may be displayed in text near the frame 40. The planar image reading unit 25 notifies the projection method conversion unit 1 whether the planar image P is a moving image or a still image. The distinction between a moving image and a still image may be determined by, for example, a file extension (jpeg is a still image, mpeg is a moving image), or may be determined from the file name of the planar image P.
図31は、枠40の重畳を模式的に説明する図の一例である。表示画像304、射影方式変換画像302、マスクデータ303に加え、透明レイヤ308が画像重畳部33に入力される。表示画像304への射影方式変換画像302の重畳方法は図15で説明した。 FIG. 31 is an example of a diagram that schematically illustrates the overlap of the frames 40. In addition to the display image 304, the projection method conversion image 302, and the mask data 303, the transparent layer 308 is input to the image superimposing unit 33. The method of superimposing the projection method conversion image 302 on the display image 304 has been described with reference to FIG.
画像重畳部33はマスクデータ303を使って、透明レイヤ308からマスクデータ303の白画素に対応する領域を取り出す。そして、取り出した透明レイヤ308を重畳画像305に重ね合わせることで、平面画像Pの外縁を表す枠40を表示する。 The image superimposing unit 33 uses the mask data 303 to extract an area corresponding to the white pixel of the mask data 303 from the transparent layer 308. Then, the frame 40 representing the outer edge of the planar image P is displayed by superimposing the extracted transparent layer 308 on the superimposed image 305.
なお、例えばユーザUの操作によって、枠40の表示と非表示が切り替えられてもよい。この場合、画像重畳部33は透明なレイヤの表示と非表示をユーザUの操作に応じて切り替える。また、マウスカーソルが平面画像Pと重なった場合に、重なった平面画像Pの枠40が表示されてもよい。 For example, the display and non-display of the frame 40 may be switched by the operation of the user U. In this case, the image superimposing unit 33 switches between display and non-display of the transparent layer according to the operation of the user U. Further, when the mouse cursor overlaps with the planar image P, the frame 40 of the overlapping planar image P may be displayed.
図32は、動画と静止画で異なる態様で表示された枠40の一例を示す図である。動画は点線の枠40aで囲まれているが、静止画は実線の枠40bで囲まれている。ユーザは動画か静止画かを容易に判別できる。また、平面画像Pの位置及びサイズを判別できる。 FIG. 32 is a diagram illustrating an example of a frame 40 displayed in a different manner between a moving image and a still image. The moving image is surrounded by a dotted frame 40a, while the still image is surrounded by a solid frame 40b. The user can easily determine whether it is a moving image or a still image. Further, the position and size of the planar image P can be determined.
図33は、表示装置30が全天球画像CEに平面画像Pの枠40を表示する手順を示すフローチャート図の一例である。図33の説明では主に図17との相違を説明する。ステップS10〜S30の処理は図17と同様である。ただし、ステップS30では、位置パラメータ算出部23は全ての平面画像Pの位置パラメータPPを算出する。 FIG. 33 is an example of a flowchart illustrating a procedure in which the display device 30 displays the frame 40 of the planar image P on the omnidirectional image CE. In the description of FIG. 33, differences from FIG. 17 are mainly described. Processing in steps S10 to S30 is the same as that in FIG. However, in step S30, the position parameter calculation unit 23 calculates the position parameters PP of all the planar images P.
次のステップS40〜S90は図17と同様でよい。ステップS90に続いて、射影方式変換部1は、動画か静止画かによって異なる平面画像Pの外縁の矩形321を用意し、位置パラメータPPで外縁の矩形321を透明レイヤ308に射影方式変換する(S92)。これにより、透明レイヤ308に動画と静止画によって異なる枠40が得られる。 The next steps S40 to S90 may be the same as in FIG. Subsequent to step S90, the projection method conversion unit 1 prepares the outer edge rectangle 321 of the planar image P depending on whether it is a moving image or a still image, and performs the projection method conversion of the outer edge rectangle 321 to the transparent layer 308 with the position parameter PP ( S92). Thereby, different frames 40 are obtained in the transparent layer 308 depending on the moving image and the still image.
次に、画像重畳部33は重畳画像305を生成し(S100)、マスクデータ303を用いて透明レイヤ308から枠40を抽出する(S102)。 Next, the image superimposing unit 33 generates a superimposed image 305 (S100), and extracts the frame 40 from the transparent layer 308 using the mask data 303 (S102).
画像重畳部33は全ての平面画像Pを重畳したか否かを判断する(S104)。全ての平面画像Pを重畳するまで、処理はステップS70に戻りステップS70〜S102が実行される。 The image superimposing unit 33 determines whether all the planar images P are superimposed (S104). Until all the planar images P are superimposed, the process returns to step S70 and steps S70 to S102 are executed.
以上のようにして、表示装置30は全天球画像CEに平面画像Pを重畳すると共に、動画と静止画で異なる態様の枠40を表示できる。なお、枠40は、上記(i)〜(iii)の条件が満たされた場合に消去されることが好ましい。消去されることで、ユーザUが平面画像Pを見ることを阻害しなくなる。 As described above, the display device 30 can superimpose the planar image P on the omnidirectional image CE, and can display the frame 40 having different modes for the moving image and the still image. The frame 40 is preferably deleted when the above conditions (i) to (iii) are satisfied. By erasing, the user U is not hindered from seeing the planar image P.
また、画像重畳部33は、ユーザUがマウスカーソルを平面画像Pと重ねた場合にだけ枠40を表示してもよいし、逆に、ユーザUがマウスカーソルを平面画像Pと重ねていない場合にだけ表示してもよい。ユーザUはマウスカーソルを移動させることで枠40の表示と非表示を切り替えることができる。また、画像重畳部33は、閲覧領域Tが変更されてから所定時間を経過するまで枠40を表示し、その後、枠40を消去してもよい。 In addition, the image superimposing unit 33 may display the frame 40 only when the user U overlays the mouse cursor on the planar image P. Conversely, when the user U does not overlay the mouse cursor on the planar image P. It may be displayed only for. The user U can switch between displaying and hiding the frame 40 by moving the mouse cursor. Further, the image superimposing unit 33 may display the frame 40 until a predetermined time elapses after the viewing area T is changed, and then delete the frame 40.
また、枠40に焦点距離を表示してもよい。枠40と焦点距離情報が平面画像Pの近くに表示されるので、ユーザUはどのくらいの焦点距離の平面画像Pが重畳されているか把握できる。 Further, the focal length may be displayed on the frame 40. Since the frame 40 and the focal length information are displayed near the plane image P, the user U can grasp how much the plane image P of the focal length is superimposed.
<まとめ>
以上説明したように、本実施例の表示装置30によれば、平面画像Pが重畳されている位置を枠40などで表示できる。また、ユーザは動画と静止画の判断が可能になる。
<Summary>
As described above, according to the display device 30 of the present embodiment, the position where the planar image P is superimposed can be displayed with the frame 40 or the like. In addition, the user can determine a moving image and a still image.
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.
例えば、上記の実施例は自動的に動画の再生と停止を切り替えるものであるが、ユーザUが意図的に動画の再生・停止を指定してもよい。 For example, although the above embodiment automatically switches between playback and stop of a moving image, the user U may intentionally specify playback / stop of a moving image.
また、全天球画像の表示はブラウザソフトウェアで行ってもよいし、全天球画像CEを表示するためのアプリケーションソフトで行ってもよい。 Further, the display of the omnidirectional image may be performed by browser software, or may be performed by application software for displaying the omnidirectional image CE.
また、図3(c)の構成において、表示用の位置パラメータの作成までを画像重畳サーバ70で行って、作成された表示用の位置パラメータ及びフレームIDをメタデータとして表示装置30に戻し、表示装置30が該メタデータ、全天球画像、平面画像(動画を含む)を用いて表示してよい。 In the configuration of FIG. 3C, the image superimposing server 70 performs the process up to the creation of the display position parameter, and returns the created display position parameter and frame ID to the display device 30 as metadata. The device 30 may display using the metadata, the omnidirectional image, and the planar image (including moving images).
また、本実施形態の全天球画像は閲覧領域Tに表示しきない画角の画像データであればよい。例えば、水平方向にだけ180度〜360度の画角を有する画像でもよい。 Further, the omnidirectional image of the present embodiment may be image data having an angle of view that cannot be displayed in the viewing area T. For example, an image having an angle of view of 180 degrees to 360 degrees only in the horizontal direction may be used.
また、図12、18などの構成例は、全天球カメラ20、表示装置30、及びデジタルカメラ9による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。全天球カメラ20、表示装置30、及びデジタルカメラ9の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。図12,18の処理に関しては表示装置30と画像重畳サーバ70のどちらが処理の一部又は全てを行ってもよい。 12 and 18 are divided according to main functions in order to facilitate understanding of processing by the omnidirectional camera 20, the display device 30, and the digital camera 9. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the omnidirectional camera 20, the display device 30, and the digital camera 9 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes. 12 and 18, either the display device 30 or the image superimposing server 70 may perform part or all of the processing.
例えば、画像重畳部33までの処理を画像重畳サーバ70が行い、画像表示部31が別体の表示装置30であってもよい。 For example, the processing up to the image superimposing unit 33 may be performed by the image superimposing server 70, and the image display unit 31 may be a separate display device 30.
なお、判断部35は判断手段の一例であり、画像切替部36は表示切替手段の一例であり、視線方向画角指示部26は操作受付手段の一例であり、射影方式変換部2は画像表示手段の一例であり、画像重畳部33は重畳画像表示手段の一例である。 The determination unit 35 is an example of a determination unit, the image switching unit 36 is an example of a display switching unit, the line-of-sight direction angle-of-view instruction unit 26 is an example of an operation reception unit, and the projection method conversion unit 2 is an image display unit. The image superimposing unit 33 is an example of a superimposed image display unit.
7 変換表示部
8 位置パラメータ作成部
9 デジタルカメラ
20 全天球カメラ
23 位置パラメータ算出部
24 位置パラメータ書出部
26 視線方向画角指示部
30 表示装置
32 画像重畳部
33 画像重畳部
35 判断部
36 画像切替部
100 画像処理システム
7 conversion display unit 8 position parameter creation unit 9 digital camera 20 omnidirectional camera 23 position parameter calculation unit 24 position parameter writing unit 26 gaze direction angle of view instruction unit 30 display device 32 image superimposing unit 33 image superimposing unit 35 determining unit 36 Image switching unit 100 Image processing system
Claims (10)
前記第二の画像が閲覧されるか否かを判断する判断手段と、
前記判断手段の判断結果に応じて、前記第二の画像を動画として再生するか又は静止画として表示するかを切り替える表示切替手段と、
を有する表示装置。 A display device that displays the first image in which a second image that can be displayed as a moving image is superimposed on the first image,
Determining means for determining whether or not the second image is viewed;
Display switching means for switching whether to reproduce the second image as a moving image or display as a still image according to the determination result of the determination means;
A display device.
前記判断手段が前記第二の画像が閲覧されないと判断した場合、前記表示切替手段は前記第二の画像を静止画として表示する請求項1に記載の表示装置。 When the determination means determines that the second image is browsed, the display switching means reproduces the second image as a moving image,
The display device according to claim 1, wherein when the determination unit determines that the second image is not browsed, the display switching unit displays the second image as a still image.
前記比率が閾値より大きい場合、前記表示切替手段は、前記第二の画像を静止画として表示し、前記比率が閾値以下の場合、前記第二の画像を動画として表示する請求項1又は2に記載の表示装置。 The determination means compares the ratio of the viewing area of the first image displayed on the display device with respect to the area where the second image is displayed, with a threshold,
The display switching unit displays the second image as a still image when the ratio is greater than a threshold value, and displays the second image as a moving image when the ratio is equal to or less than the threshold value. The display device described.
前記大きさが閾値より大きい場合、前記表示切替手段は前記第二の画像を動画として表示し、
前記大きさが閾値以下の場合、前記第二の画像を静止画として表示する請求項1又は2に記載の表示装置。 The determination means compares the size of the second image displayed on the display device with a threshold value,
When the size is larger than the threshold, the display switching means displays the second image as a moving image,
The display device according to claim 1, wherein when the size is equal to or smaller than a threshold value, the second image is displayed as a still image.
前記操作受付手段が操作を受け付けた座標が前記第二の画像に重なっているか否かを前記判断手段が判断し、
前記座標が前記第二の画像に重なっていると前記判断手段が判断した場合、前記表示切替手段は前記第二の画像を動画として表示する請求項1又は2に記載の表示装置。 Operation receiving means for receiving an operation on the first image;
The determination means determines whether or not the coordinates received by the operation reception means overlap the second image,
The display device according to claim 1, wherein the display switching unit displays the second image as a moving image when the determination unit determines that the coordinates overlap with the second image.
前記第二の画像を前記表示装置の表示サイズまで徐々に拡大して表示する画像表示手段を有する請求項5に記載の表示装置。 When the determination unit determines that the coordinates overlap the second image when the second image is displayed on the display device,
The display device according to claim 5, further comprising an image display unit that gradually enlarges and displays the second image to a display size of the display device.
動画として表示可能な前記第二の画像及び静止画としてのみ表示可能な前記第二の画像が重畳されている旨をそれぞれ表示する重畳画像表示手段を有する請求項1〜6のいずれか1項に記載の表示装置。 The second image that can be displayed as a moving image and the second image that can be displayed only as a still image are superimposed on the first image,
7. The superimposing image display means for displaying that the second image that can be displayed as a moving image and the second image that can be displayed only as a still image are superimposed, respectively. The display device described.
前記第二の画像が閲覧されるか否かを判断する判断手段と、
前記判断手段の判断結果に応じて、前記第二の画像を動画として再生するか又は静止画として表示するかを切り替える表示切替手段、
として機能させるためのプログラム。 A display device that displays the first image in which a second image that can be displayed as a moving image is superimposed on the first image;
Determining means for determining whether or not the second image is viewed;
Display switching means for switching whether the second image is reproduced as a moving image or displayed as a still image according to a determination result of the determination means;
Program to function as.
判断手段が、前記第二の画像が閲覧されるか否かを判断するステップと、
表示切替手段が、前記判断手段の判断結果に応じて、前記第二の画像を動画として再生するか又は静止画として表示するかを切り替えるステップと、
を有する表示方法。 A display method performed by a display device that displays the first image in which a second image that can be displayed as a moving image is superimposed on the first image,
A step of determining whether or not the second image is viewed;
A step of switching whether the display switching means reproduces the second image as a moving image or displays it as a still image according to the determination result of the determination means;
Display method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/855,443 US10437545B2 (en) | 2016-12-28 | 2017-12-27 | Apparatus, system, and method for controlling display, and recording medium |
US16/562,437 US20190391778A1 (en) | 2016-12-28 | 2019-09-06 | Apparatus, system, and method for controlling display, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016256383 | 2016-12-28 | ||
JP2016256383 | 2016-12-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018110375A true JP2018110375A (en) | 2018-07-12 |
Family
ID=62844514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017208675A Withdrawn JP2018110375A (en) | 2016-12-28 | 2017-10-27 | Display device, program, and display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018110375A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020022065A (en) * | 2018-07-31 | 2020-02-06 | 株式会社リコー | Distribution device, camera device, distribution system, distribution method, and distribution program |
WO2020059327A1 (en) * | 2018-09-18 | 2020-03-26 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020096353A (en) * | 2018-11-30 | 2020-06-18 | 株式会社リコー | Relay device, communication system, communication method, and program |
JP2020108111A (en) * | 2018-12-28 | 2020-07-09 | キヤノン株式会社 | Electronic device and control method of the same |
JP2020113843A (en) * | 2019-01-09 | 2020-07-27 | 凸版印刷株式会社 | Image capturing support device and image capturing support method |
WO2020162218A1 (en) * | 2019-02-08 | 2020-08-13 | ソニー株式会社 | Reproduction device, reproduction method, and program |
US10939068B2 (en) | 2019-03-20 | 2021-03-02 | Ricoh Company, Ltd. | Image capturing device, image capturing system, image processing method, and recording medium |
JP2021087136A (en) * | 2019-11-28 | 2021-06-03 | 株式会社リコー | Communication terminal, shooting system, image processing method, and program |
JP2021097326A (en) * | 2019-12-17 | 2021-06-24 | 株式会社リコー | Communication terminal, photographing system, image processing method, and program |
WO2021124920A1 (en) * | 2019-12-19 | 2021-06-24 | ソニーグループ株式会社 | Information processing device, information processing method, and recording medium |
JP2022538799A (en) * | 2019-06-25 | 2022-09-06 | 北京小米移動軟件有限公司 | Panoramic media playback method, equipment and computer-readable storage medium |
US11928775B2 (en) | 2020-11-26 | 2024-03-12 | Ricoh Company, Ltd. | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image |
-
2017
- 2017-10-27 JP JP2017208675A patent/JP2018110375A/en not_active Withdrawn
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7176277B2 (en) | 2018-07-31 | 2022-11-22 | 株式会社リコー | Delivery device, camera device, delivery system, delivery method and delivery program |
JP2020022065A (en) * | 2018-07-31 | 2020-02-06 | 株式会社リコー | Distribution device, camera device, distribution system, distribution method, and distribution program |
WO2020059327A1 (en) * | 2018-09-18 | 2020-03-26 | ソニー株式会社 | Information processing device, information processing method, and program |
JP7434825B2 (en) | 2018-11-30 | 2024-02-21 | 株式会社リコー | Relay device, communication system, communication method, and program |
JP2020096353A (en) * | 2018-11-30 | 2020-06-18 | 株式会社リコー | Relay device, communication system, communication method, and program |
JP7278773B2 (en) | 2018-12-28 | 2023-05-22 | キヤノン株式会社 | Electronic device and its control method |
JP2020108111A (en) * | 2018-12-28 | 2020-07-09 | キヤノン株式会社 | Electronic device and control method of the same |
JP7286968B2 (en) | 2019-01-09 | 2023-06-06 | 凸版印刷株式会社 | Imaging support device and imaging support method |
JP2020113843A (en) * | 2019-01-09 | 2020-07-27 | 凸版印刷株式会社 | Image capturing support device and image capturing support method |
JP7484729B2 (en) | 2019-02-08 | 2024-05-16 | ソニーグループ株式会社 | Playback device, playback method, and program |
WO2020162218A1 (en) * | 2019-02-08 | 2020-08-13 | ソニー株式会社 | Reproduction device, reproduction method, and program |
US11477396B2 (en) | 2019-02-08 | 2022-10-18 | Sony Group Corporation | Reproducing device, reproducing method, and program |
JPWO2020162218A1 (en) * | 2019-02-08 | 2021-12-09 | ソニーグループ株式会社 | Playback device, playback method, and program |
EP3923267A4 (en) * | 2019-02-08 | 2022-04-13 | Sony Group Corporation | Reproduction device, reproduction method, and program |
US11310459B2 (en) | 2019-03-20 | 2022-04-19 | Ricoh Company, Ltd. | Image capturing device, image capturing system, image processing method, and recording medium |
US10939068B2 (en) | 2019-03-20 | 2021-03-02 | Ricoh Company, Ltd. | Image capturing device, image capturing system, image processing method, and recording medium |
JP2022538799A (en) * | 2019-06-25 | 2022-09-06 | 北京小米移動軟件有限公司 | Panoramic media playback method, equipment and computer-readable storage medium |
US11889125B2 (en) | 2019-06-25 | 2024-01-30 | Beijing Xiaomi Mobile Software Co., Ltd. | Omnidirectional media playback method and device and computer readable storage medium thereof |
JP7400407B2 (en) | 2019-11-28 | 2023-12-19 | 株式会社リコー | Communication terminal, photographing system, image processing method and program |
JP2021087136A (en) * | 2019-11-28 | 2021-06-03 | 株式会社リコー | Communication terminal, shooting system, image processing method, and program |
JP2021097326A (en) * | 2019-12-17 | 2021-06-24 | 株式会社リコー | Communication terminal, photographing system, image processing method, and program |
JP7424031B2 (en) | 2019-12-17 | 2024-01-30 | 株式会社リコー | Communication terminal, photographing system, image processing method and program |
WO2021124920A1 (en) * | 2019-12-19 | 2021-06-24 | ソニーグループ株式会社 | Information processing device, information processing method, and recording medium |
US11928775B2 (en) | 2020-11-26 | 2024-03-12 | Ricoh Company, Ltd. | Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018110375A (en) | Display device, program, and display method | |
US10437545B2 (en) | Apparatus, system, and method for controlling display, and recording medium | |
JP6756269B2 (en) | Communication terminals, image communication systems, communication methods, and programs | |
JP6805861B2 (en) | Image processing equipment, image processing system, image processing method and program | |
JP6337888B2 (en) | Image processing apparatus, image processing method, and program | |
JP5406813B2 (en) | Panorama image display device and panorama image display method | |
JP2022031324A (en) | Communication management system, communication system, communication management method and program | |
JP6292227B2 (en) | Image processing apparatus, image processing method, and program | |
CN111726520B (en) | Imaging device, imaging system, and image processing method | |
JP7192592B2 (en) | Imaging device, image communication system, image processing method, program | |
JP6816465B2 (en) | Image display systems, communication systems, image display methods, and programs | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
JP2019164782A (en) | Image processing apparatus, image capturing system, image processing method, and program | |
JP2018109946A (en) | Display device, program, and method for display | |
JP7017045B2 (en) | Communication terminal, display method, and program | |
US11533430B2 (en) | Image capturing device with display control, image communication system, and method for display control, and recording medium | |
JP6711118B2 (en) | Image management system, program and information terminal | |
JP7424031B2 (en) | Communication terminal, photographing system, image processing method and program | |
JP2018109740A (en) | Display device, program, and method for display | |
JP5646033B2 (en) | Image display device and image display method | |
JP7484237B2 (en) | Photographing device, photographing system, image processing method, and program | |
JP7400407B2 (en) | Communication terminal, photographing system, image processing method and program | |
CN110881102B (en) | Image capturing apparatus, control method of image capturing apparatus, and computer readable medium | |
US12073139B2 (en) | Information processing apparatus, information processing method, and non-transitory recording medium | |
US20240257301A1 (en) | Information processing apparatus and information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20201111 |