JP2012100015A - Three-dimensional video reproducing device - Google Patents
Three-dimensional video reproducing device Download PDFInfo
- Publication number
- JP2012100015A JP2012100015A JP2010245300A JP2010245300A JP2012100015A JP 2012100015 A JP2012100015 A JP 2012100015A JP 2010245300 A JP2010245300 A JP 2010245300A JP 2010245300 A JP2010245300 A JP 2010245300A JP 2012100015 A JP2012100015 A JP 2012100015A
- Authority
- JP
- Japan
- Prior art keywords
- video
- threshold
- unit
- data
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
この発明は、三次元動画の映像にその映像を捕えた撮影装置の時間に伴う位置の変化量が付加されてなる三次元映像の再生装置に関する。 The present invention relates to a 3D video playback apparatus in which a 3D moving image video is added with a position change amount with time of a photographing apparatus that captures the video.
一般に立体映像(3D 映像)を観察する場合、通常の二次元映像(2D 映像)を観察する場合に比べて、目が疲労しやすいといわれている。加えて、表示されている対象物に激しい動きがあったり、あるいは映像を撮影するカメラの側に激しい動きがあったりした場合に、視聴者が頭痛や吐き気を伴うことがある。いわゆる「3D 酔い」といわれる症状である。この症状に対する根本的な対応策は無く、3D 映像を提供する装置や施設は、視聴者に長時間の使用を避けるよう注意勧告するといったような対策に留まらざるを得なかった。 In general, it is said that when observing a stereoscopic image (3D image), eyes are more likely to be fatigued than when observing a normal two-dimensional image (2D image). In addition, the viewer may have a headache or nausea when the displayed object has a violent movement or a violent movement on the side of the camera that captures the video. This is the so-called “3D sickness”. There was no fundamental countermeasure for this symptom, and devices and facilities that provided 3D images had to be limited to measures that advised viewers to avoid using them for a long time.
しかし、例えば、DVD、BlueRayプレーヤー等の再生機や映画メディアのマニュアルなどに、長時間の視聴を避けるように注意事項を記述したとしても、視聴者がコンテンツ視聴中にそれを思い出し、注意事項に従うとは限らない。視聴者が意識せずとも、3D映像を見るのを避ける、あるいは移動速度の大きい3D映像を表示しないといったような仕組が実効ある対策として望まれている。 However, even if the precautions are described so as to avoid watching for a long time, for example, on a DVD or BlueRay player or a movie media manual, the viewer remembers that while watching the content and follows the precautions. Not necessarily. Even if the viewer is not conscious, a mechanism that avoids viewing 3D video or does not display 3D video with a high moving speed is desired as an effective measure.
このような「3D 酔い」を考慮した発明として、立体映像視聴用眼鏡に額の皮膚温を検出するセンサと鼻の皮膚温を検出するセンサとを設け、さらに、立体映像視聴用眼鏡に瞬きを検出するセンサを設けたものが提案されている。額と鼻の皮膚温の検出結果は、興奮度データ変喚器に導かれて興奮度が得られる。瞬きの検出結果は疲労度データ変換器に導かれて疲労度が得られる。このようにして取得された興奮度と疲労度に基づいて、3D 映像の立体強調度を調整するものである。より具体的には、この立体強調度に応じて2次元3次元変換をする立体テレビジョン受像機のフィールドメモリの遅延量を制御する(例えば、特許文献1参照)。 As an invention in consideration of such “3D sickness”, a sensor for detecting the skin temperature of the forehead and a sensor for detecting the skin temperature of the nose are provided on the stereoscopic video viewing glasses, and the stereoscopic video viewing glasses are further blinked. A sensor provided with a detection sensor has been proposed. The detection result of the skin temperature of the forehead and nose is guided to the excitement level data transformer to obtain the excitement level. The blink detection result is guided to a fatigue level data converter to obtain the fatigue level. Based on the excitement level and fatigue level acquired in this way, the 3D enhancement level of the 3D image is adjusted. More specifically, the delay amount of the field memory of a stereoscopic television receiver that performs two-dimensional and three-dimensional conversion is controlled according to the degree of stereoscopic enhancement (for example, see Patent Document 1).
さらに、入力された映像信号から観察者に与える影響度を評価し、その影響度の評価結果に基づいて立体映像の立体度を調整しあるいは立体映像を2次元映像へ切り替える映像システムが提案されている(例えば、特許文献2参照)。前記映像システムは、3次元映像信号を送出する3D 映像再生機と、該3D 映像再生機からの3D 映像信号の視差量を検出する視差量検出部と、検出された視差量に基づいて疲労度を評価し、疲労度評価量に対応して映像切り替え信号を出力する疲労度評価部と、映像切り替え信号に基づいて3次元映像と2次元映像とを切り替え出力する3D 映像/2D 映像切り替え部と、3次元映像又は2次元映像を表示する映像表示部とで構成される。
この映像システムによれば、観察者の生理的な計測を行わずに映像の調整や切換えを行い観察者に過度の疲労を与えないようにできる。
Further, a video system has been proposed in which the degree of influence on the observer is evaluated from the input video signal, and the stereoscopic degree of the stereoscopic video is adjusted based on the evaluation result of the degree of influence or the stereoscopic video is switched to the two-dimensional video. (For example, refer to Patent Document 2). The video system includes a 3D video player that transmits a 3D video signal, a parallax amount detector that detects a parallax amount of the 3D video signal from the 3D video player, and a fatigue level based on the detected parallax amount. A fatigue evaluation unit that outputs a video switching signal corresponding to the fatigue evaluation amount, and a 3D video / 2D video switching unit that switches between 3D video and 2D video based on the video switching signal, and It is comprised with the video display part which displays a three-dimensional image or a two-dimensional image.
According to this video system, it is possible to adjust and switch the video without performing the physiological measurement of the observer so as not to give the observer excessive fatigue.
前記特許文献1のように、観察者の生理的な計測値に基づいて立体強度を制御する手法では、得られる計測値と疲労度の関係に計測誤差や個人差があり全ての観測者にとって適切な度合いに立体度を調整し、観察者の疲労度を適切に制御することは容易でない。さらに、各観察者について個別に計測値を得るのは処理が煩雑である。 As in Patent Document 1, in the method of controlling the solid intensity based on the physiological measurement value of the observer, there is a measurement error or individual difference in the relationship between the obtained measurement value and the fatigue level, which is appropriate for all observers. It is not easy to adjust the three-dimensionality to a certain degree and appropriately control the observer's fatigue level. Furthermore, it is complicated to obtain measurement values individually for each observer.
また、前記特許文献2のように、映像データ上の立体度や移動速度を元に疲労度への影響度を評価する手法は、次の点で評価の精度が十分とはいえない。酔いの一因として、視聴者が想定する移動ベクトルと、実際の画面上の3D映像の差異があげられる。すなわち、映像データ上は同一の立体度や移動速度が同じであっても、視聴者の視点が固定され視界内の一部の対象物が移動する場合と、視聴者の視点そのものが移動することにより視界内のすべての対象物が移動する場合とで、観察者が受ける3D 酔いの影響に差異がある。当然後者の方が、3D 酔いの影響が大きいと考えられる。よって、画面内の対象物の立体度や移動速度よりも、むしろ視聴者の視点の移動に基づく評価が好ましいといえる。
この発明は、以上のような事情を考慮してなされたものであって、視聴者の視点そのものが移動する場合の3D 映像に対して3D 酔いの対策を行い、効果的な3D酔い防止策を実現する手法を提供するものである。
In addition, as in Patent Document 2, the method for evaluating the degree of influence on the fatigue level based on the solidity and moving speed on the video data is not sufficiently accurate in the following points. One of the causes of sickness is the difference between the movement vector assumed by the viewer and the actual 3D image on the screen. In other words, even if the same stereoscopic degree and moving speed are the same on the video data, the viewer's viewpoint is fixed and some of the objects in the field of view move, and the viewer's viewpoint itself moves. There is a difference in the effect of 3D sickness on the viewer when all objects in the field of view move. Naturally, the latter is considered to have a greater effect of 3D sickness. Therefore, it can be said that the evaluation based on the movement of the viewer's viewpoint rather than the three-dimensionality and moving speed of the object in the screen is preferable.
The present invention has been made in consideration of the above-described circumstances, and provides an effective 3D sickness prevention measure by taking measures against 3D sickness on 3D images when the viewer's viewpoint itself moves. It provides a method to realize.
この発明は、三次元動画の映像にその映像を捕えたカメラ位置の移動速度が付加された記録映像を取得し再生する映像取得部と、カメラ位置の移動速度に係る閾値を予め格納する記憶部と、取得された記録映像の再生中に前記カメラ位置の移動速度と前記閾値とを比較し、移動速度が閾値を超える時間帯と閾値以下の時間帯とに前記映像を分離する映像分離部と、閾値を超える時間帯に再生する映像を補正する映像補正部と、閾値を超える時間帯は前記映像補正部により補正された映像を表示し閾値以下の時間帯は前記映像補正部による補正がされない映像を表示するように制御する表示制御部とを備えることを特徴とする三次元映像再生装置を提供する。 The present invention relates to a video acquisition unit that acquires and reproduces a recorded video in which a moving speed of a camera position where the video is captured is added to a video of a three-dimensional video, and a storage unit that stores in advance a threshold value related to the moving speed of the camera position And a video separation unit that compares the moving speed of the camera position with the threshold during reproduction of the acquired recorded video and separates the video into a time zone where the moving speed exceeds the threshold and a time zone below the threshold; A video correction unit that corrects a video to be reproduced in a time zone exceeding the threshold, and a video corrected by the video correction unit is displayed in a time zone that exceeds the threshold, and the video correction unit is not corrected in a time zone below the threshold. Provided is a 3D video reproduction device comprising a display control unit that controls to display video.
即ち、前述の課題を解決するために、3D 映像作成時にその映像をとらえたカメラの移動量(移動、回転など)を記録しておく。作成された3D 映像を再生するとき、カメラの移動は視聴者の視点の移動に相当する。再生装置には、移動の速さに係る閾値を取得しておく。前記閾値は視聴者ごとに設定可能とすることが好ましい。再生される3D 映像のうち記録された移動量が前記閾値を超える部分については、画面の表示を消す、3D 映像の再生速度を落とす、あるいは2D 映像に切り替えるなどの処理を行う。 That is, in order to solve the above-mentioned problems, the movement amount (movement, rotation, etc.) of the camera that captured the video at the time of 3D video creation is recorded. When playing back the created 3D video, moving the camera is equivalent to moving the viewer's viewpoint. The playback apparatus acquires a threshold value relating to the speed of movement. The threshold value is preferably set for each viewer. For the portion of the 3D video to be played whose recorded movement exceeds the threshold, processing such as turning off the screen display, reducing the playback speed of the 3D video, or switching to 2D video is performed.
この発明の再生装置は、三次元動画の映像にその映像を捕えたカメラ位置の移動速度が付加された記録映像を取得し再生する映像取得部と、閾値を超える時間帯に再生する映像を補正する映像補正部と、閾値を超える時間帯は前記映像補正部により補正された映像を表示し閾値以下の時間帯は前記映像補正部による補正がされない映像を表示するように制御する表示制御部とを備えるので、視聴者の視点そのものが移動する場合の3D 映像に対して3D 酔いの対策を行い、効果的な3D酔い防止策を実現することができる。
すなわち、視聴者が意識せずとも、3D酔いの発生を防ぎ、視聴者の健康への影響を抑えることが可能である。
この発明において、三次元動画は、視聴者の左眼と右目に視差の分だけ互いに異なる映像をみせることによって視聴者が平面状の表示装置に表示される映像に奥行き、あるいは立体感を感じるようにした映像である。
このような三次元動画を再生する装置には、いわゆる3D テレビとしてすでに市販されているものが含まれる。従来と異なるこの発明の特徴的な一側面は、3D 映像作成時にその映像をとらえたカメラの位置の移動(直線移動や回転など)の速さが付加されて提供されることを前提とし、付加された移動速度に基づいて3D酔い防止の対策を行うことにある。
この発明の映像取得部は、前述のようにカメラ位置の移動速度が付加された三次元映像を取得して再生するものである。前記三次元映像は、DVD、ブルーレイディスクあるいはメモリーカードといったような記録媒体に記録されて提供されてもよい。あるいは、インターネット等の通信手段を介してアクセス可能な状態で提供されてもよい。前者の場合、映像取得部は、例えばブルーレイディスクドライブのような、記録媒体に格納された映像を読み出すものであり、後者の場合はオンデマンドであるいはダウンロードして映像を再生する装置に相当する。
記憶部は、設定された閾値を少なくとも格納する不揮発性のメモリである。さらに、再生する映像データの全部または一部を格納してもよい。その具体的態様としては、ハードディスク装置やフラッシュメモリなどのハードウェアに相当する。
映像分離部は、取得された記録映像に含まれる各時点のカメラ位置の移動速度の情報と記憶部に格納された閾値とを比較し、閾値を超える移動速度の映像をそうでない映像とを分離する処理をおこなうものである。具体的な態様としては、コンピュータ、デジタル・シグナル・プロセッサあるいは専用の処理回路により実現される。映像の分離は、例えばカメラ位置の移動速度が閾値を超える時間帯の映像を少なくとも一つのパケットとし、閾値以下の時間帯の映像を他のパケットとし、それぞれのパケットに閾値を超えるものか否かの属性を付加する処理をおこなうようにしてもよい。
映像補正部は、カメラ位置の移動速度が閾値を超える映像の表示を補正する処理を行う。映像補正部の具体的な態様としては、コンピュータ、デジタル・シグナル・プロセッサあるいは専用の処理回路により実現される。後述する実施例において、この映像補正部は、2D 化映像生成部、メッセージ表示生成部および低速映像生成部に相当する。
表示制御部は、表示装置の動作を制御しかつ表示装置に表示させる内容を制御するものである。その具体的な態様は、例えば、液晶表示装置の駆動回路、ビデオRAM等の回路を含む表示制御回路、その前段にあってビデオRAMに入力する映像データを切換える回路、および、それらの回路を制御するCPUなどである。
The playback apparatus according to the present invention corrects a video to be played back in a time zone exceeding a threshold, and a video acquisition unit that acquires and plays back a recorded video in which the moving speed of the camera position that captured the video is added to the video of the 3D video A display control unit that controls to display a video that has been corrected by the video correction unit during a time period that exceeds the threshold value, and display a video that is not corrected by the video correction unit during a time period that is less than or equal to the threshold value. Therefore, it is possible to implement 3D sickness countermeasures for 3D images when the viewer's viewpoint itself moves, and to realize effective 3D sickness prevention measures.
That is, it is possible to prevent the occurrence of 3D sickness and suppress the influence on the health of the viewer without the viewer being aware of it.
In the present invention, the three-dimensional moving image makes the viewer feel a depth or a three-dimensional feeling in the image displayed on the flat display device by displaying different images for the parallax in the viewer's left eye and right eye. It is the picture made.
Such a device for reproducing a three-dimensional moving image includes a device that is already on the market as a so-called 3D television. One characteristic aspect of the present invention, which is different from the conventional one, is based on the premise that the camera is provided with the speed of movement (straight line movement, rotation, etc.) of the camera that captured the image at the time of 3D image creation. It is to take measures to prevent 3D sickness based on the moving speed.
The video acquisition unit of the present invention acquires and reproduces the 3D video to which the moving speed of the camera position is added as described above. The 3D image may be provided by being recorded on a recording medium such as a DVD, a Blu-ray disc, or a memory card. Or you may provide in the state accessible via communication means, such as the internet. In the former case, the video acquisition unit reads out video stored in a recording medium such as a Blu-ray disc drive, and in the latter case, the video acquisition unit corresponds to a device that plays the video on demand or downloaded.
The storage unit is a non-volatile memory that stores at least a set threshold value. Furthermore, all or part of the video data to be reproduced may be stored. As a specific aspect thereof, it corresponds to hardware such as a hard disk device or a flash memory.
The video separation unit compares the moving speed information of the camera position at each time point included in the acquired recorded video with the threshold stored in the storage unit, and separates the video with the moving speed exceeding the threshold from the video that is not so It performs the process to do. As a concrete mode, it is realized by a computer, a digital signal processor or a dedicated processing circuit. For video separation, for example, a video in a time zone in which the moving speed of the camera position exceeds a threshold is at least one packet, a video in a time zone below the threshold is another packet, and whether or not each packet exceeds the threshold The process of adding the attribute may be performed.
The video correction unit performs a process of correcting display of a video in which the moving speed of the camera position exceeds a threshold value. A specific aspect of the video correction unit is realized by a computer, a digital signal processor, or a dedicated processing circuit. In an embodiment described later, the video correction unit corresponds to a 2D video generation unit, a message display generation unit, and a low-speed video generation unit.
The display control unit controls the operation of the display device and the contents displayed on the display device. Specific embodiments thereof include, for example, a liquid crystal display device drive circuit, a display control circuit including a circuit such as a video RAM, a circuit for switching video data input to the video RAM in the preceding stage, and control of these circuits. CPU or the like.
以下、この発明の好ましい態様について説明する。
あるいはまた、前記映像補正部は、取得された映像の再生速度を遅くするものであってもよい。このようにすれば、映像の再生速度を遅くすることにより視点の移動速度が閾値を超えないように補正することにより視聴者の3D 酔いを防ぐことができる。
Hereinafter, preferred embodiments of the present invention will be described.
Alternatively, the video correction unit may slow down the playback speed of the acquired video. In this way, 3D sickness of the viewer can be prevented by correcting the moving speed of the viewpoint so as not to exceed the threshold by slowing down the video playback speed.
さらにまた前記映像補正部は、前記映像のフレームを間引いてコマ送りに補正するものであってもよい。このようにすれば、映像をコマ送りすることにより視点の移動の現実感を弱めるような補正することにより視聴者の3D 酔いを防ぐことができる。 Furthermore, the video correction unit may correct the frame advance by thinning out the frames of the video. In this way, it is possible to prevent viewers from getting 3D sickness by making corrections that weaken the reality of viewpoint movement by frame-by-frame.
また、前記映像補正部は、閾値を超える時間帯は視聴者に取得された映像をみせないように補正するものであってもよい。このようにすれば、閾値を超えた速度で視点が移動するときは視聴者が三次元映像をみないように補正することにより視聴者の3D 酔いを防ぐことができる。 The video correction unit may correct the video so that the viewer does not see the video acquired during a time period exceeding the threshold. In this way, when the viewpoint moves at a speed exceeding the threshold, the viewer can be prevented from seeing the 3D motion by correcting so that the viewer does not see the 3D video.
さらに、前記映像補正部は、所定のメッセージを表示するように補正するものであってもよい。このようにすれば、意図的に三次元映像をみないようにしていることを視聴者に知らせて、例えば再生装置の故障と視聴者が勘違いしないようにできる。 Further, the video correction unit may correct the display so as to display a predetermined message. In this way, it is possible to notify the viewer that the 3D video is not intentionally viewed so that the viewer does not mistake the playback device for example.
前記映像補正部は、三次元の映像を二次元の映像に補正するものであってもよい。このようにすれば、閾値を超えた速度で視点が移動するときは三次元映像から立体感をなくす補正を行うことにより視聴者の3D 酔いを防ぐことができる。 The video correction unit may correct a three-dimensional video into a two-dimensional video. In this way, when the viewpoint moves at a speed exceeding the threshold, it is possible to prevent 3D sickness of the viewer by performing correction that eliminates the stereoscopic effect from the 3D video.
さらに、前記三次元動画の映像は、視差分だけ互いに異なる右眼用映像と左眼用映像とを含んでなり、前記映像補正部は、視聴者の両眼に右眼用映像のみを観せるかまたは左眼用映像データのみを観せるように補正するものであってもよい。このようにすれば、例えば、左眼用の映像と右眼用の映像を合成するといったような複雑な処理を伴わず、単純な処理で三次元映像から立体感をなくす補正を行うことができる。 Further, the three-dimensional video image includes a right-eye video and a left-eye video that are different from each other by the amount of parallax, and the video correction unit allows the viewer's eyes to view only the right-eye video. Or you may correct | amend so that only video data for left eyes can be seen. In this way, for example, it is possible to perform a correction that eliminates the stereoscopic effect from the three-dimensional video without a complicated process such as compositing the video for the left eye and the video for the right eye. .
前記記憶部は、前記閾値の設定をユーザーが行うために、カメラ位置の移動速度が変化する閾値設定用映像を予め格納してもよい。このようにすれば、移動速度が変化する閾値設定用映像を視聴者にみせてどの移動速度で3D 酔いを感じるかを個別に設定させることができる。
ここで示した種々の好ましい態様は、それら複数を組み合わせることもできる。
The storage unit may store in advance a threshold setting video in which the moving speed of the camera position changes in order for the user to set the threshold. By doing this, it is possible to individually set the moving speed at which the 3D sickness is felt by showing the viewer the threshold setting video whose moving speed changes.
The various preferable aspects shown here can also be combined.
以下、図面を用いてこの発明をさらに詳述する。なお、以下の説明は、すべての点で例示であって、この発明を限定するものと解されるべきではない。
≪3D 映像作成と速度データの対応付け≫
この発明に係る3D 映像を作成するときの処理について説明する。
Hereinafter, the present invention will be described in more detail with reference to the drawings. In addition, the following description is an illustration in all the points, Comprising: It should not be interpreted as limiting this invention.
≪Association of 3D video creation and speed data≫
Processing when creating a 3D video according to the present invention will be described.
図1は、この発明に係る3D 映像撮影装置の構成例を示すブロック図である。図1に示すように、撮影装置11は、撮像部13、映像データ生成部15、補助記憶部17、加速度センサ21、角速度センサ23、距離検出デバイス25、角速度→速度変換部27、速度データ生成部29を含んでなる。 FIG. 1 is a block diagram showing a configuration example of a 3D video photographing apparatus according to the present invention. As shown in FIG. 1, the photographing apparatus 11 includes an imaging unit 13, a video data generation unit 15, an auxiliary storage unit 17, an acceleration sensor 21, an angular velocity sensor 23, a distance detection device 25, an angular velocity → speed conversion unit 27, and velocity data generation. Part 29.
3D映像撮像部13は、映像を捕捉する。3D 映像は複数の視点から捕らえた映像から生成されるので、撮像部13は位置の異なる複数のレンズあるいは複数のカメラである。映像データ生成部15は、各カメラで捕捉された映像を統合して3D映像を生成する。補助記憶部17は、映像データ生成部15で生成された映像データを格納する(映像データ41)。さらに、後述する速度データを速度テーブル43として格納する。 The 3D video imaging unit 13 captures video. Since the 3D video is generated from video captured from a plurality of viewpoints, the imaging unit 13 is a plurality of lenses or a plurality of cameras at different positions. The video data generation unit 15 generates a 3D video by integrating videos captured by the cameras. The auxiliary storage unit 17 stores the video data generated by the video data generation unit 15 (video data 41). Further, speed data described later is stored as a speed table 43.
加速度センサ21、角速度センサ23および距離検出デバイス25は、3D 映像を撮影するときの撮影装置11の移動情報を検出する。加速度センサ21は直線方向の移動を、角速度センサ23は回転を、距離検出デバイス25は、レンズ焦点距離の変化をそれぞれ検出する。撮影された3D 映像を視聴者が観る段階で、これらのセンサにより検出された移動情報は、視聴者の視点の移動情報を提供することになる。 The acceleration sensor 21, the angular velocity sensor 23, and the distance detection device 25 detect movement information of the photographing apparatus 11 when photographing a 3D video. The acceleration sensor 21 detects linear movement, the angular velocity sensor 23 detects rotation, and the distance detection device 25 detects change in lens focal length. The movement information detected by these sensors when the viewer views the captured 3D video provides movement information of the viewer's viewpoint.
角速度→速度変換部27は、角速度センサ23と距離検出デバイス25の検出結果に基づいて撮影対象の移動速度の情報を生成する。速度データ生成部29は、加速度センサ21で検出された直線方向の移動と角速度→速度変換部27で生成された速度情報、即ち、回転に伴う移動の速度情報とを合成して撮影対象についての速度データを生成する。この速度データは、視聴者の視点が移動することによって3D 映像の撮影対象が相対的に移動するときの速度データである。
なお、変形例として3D 映像撮像部13が独立した複数のカメラからなりシステムとして構成される態様も考えられる。この場合、各カメラに加速度センサ21、角速度センサ23および距離検出デバイス25を装着してもよいが、視点を代表するカメラにのみ装着してもよい。
The angular velocity → velocity conversion unit 27 generates information on the moving speed of the imaging target based on the detection results of the angular velocity sensor 23 and the distance detection device 25. The velocity data generation unit 29 synthesizes the movement in the linear direction detected by the acceleration sensor 21 and the velocity information generated by the angular velocity → velocity conversion unit 27, that is, the velocity information of the movement accompanying rotation, about the subject to be imaged. Generate speed data. This speed data is speed data when the subject of 3D video moves relatively as the viewer's viewpoint moves.
As a modification, a mode in which the 3D video imaging unit 13 includes a plurality of independent cameras and is configured as a system is conceivable. In this case, the acceleration sensor 21, the angular velocity sensor 23, and the distance detection device 25 may be attached to each camera, but may be attached only to the camera representing the viewpoint.
速度データ生成部29は、映像データ41の各時刻に対応する速度データを生成し、補助記憶部17中の速度テーブル43に、各時刻の速度データを格納する。速度データ生成部29が処理する速度データのサンプリングの間隔は、予め定められた一定の間隔であってもよいが、撮影者が間隔を設定してもよい。あるいは、速度データに閾値を超える変化があった場合にサンプリングを行うようにしてもよい。そのサンプリング間隔は一定でもよいが、速度データの変化の大きさに応じてサンプリングの間隔が変化してもよい。
なお、速度データ生成部29の機能は、CPUあるいはマイクロコンピュータが制御プログラムを実行することにより実現されてもよい。
The speed data generation unit 29 generates speed data corresponding to each time of the video data 41 and stores the speed data at each time in the speed table 43 in the auxiliary storage unit 17. The sampling interval of the speed data processed by the speed data generation unit 29 may be a predetermined constant interval, or the photographer may set the interval. Alternatively, sampling may be performed when there is a change in speed data that exceeds a threshold value. The sampling interval may be constant, but the sampling interval may change according to the magnitude of change in the speed data.
Note that the function of the speed data generation unit 29 may be realized by a CPU or a microcomputer executing a control program.
この実施形態において速度データ生成部29は、X、YおよびZ方向の直交する3次元の座標成分として速度データを生成する。これらは、例えば、視聴者を基準とした左右、上下および前後(即ち奥行き)方向である。勿論、速度データの態様はこれに限定されるものではない。例えば、左右、上下方向の情報に変えて極座標形式の情報を用いてもよい。原則的に、視聴者が移動に敏感な成分に対応させることが好ましい。速度データの単位としては、所定の画面サイズの画素ピッチを移動距離の単位とし、時間の単位を秒とした「画素/秒」で速度データを表してもよい。例えば、フルハイビジョン動画は、1フレームの映像が縦1080×横1920の画素から構成され、40インチの画面サイズにおける画素ピッチは0.648mmである。これを距離の単位とする。あるいは画面の左端から右端までを移動距離の単位とし、時間の単位をミリ秒とした「/ミリ秒」で速度データを表してもよい。勿論、これらの例に限定されるものではなく他の方法で表現してもよい。
以上のようにして、3D の映像データ41が、各時刻における視聴者の視点の移動を表す速度データと対応づけられて生成され、補助記憶部17に格納される。
In this embodiment, the speed data generation unit 29 generates speed data as three-dimensional coordinate components orthogonal to each other in the X, Y, and Z directions. These are, for example, left and right, up and down, and front and back (ie, depth) directions with respect to the viewer. Of course, the mode of the speed data is not limited to this. For example, information in the polar coordinate format may be used instead of the information in the left and right and up and down directions. In principle, it is preferable for the viewer to deal with components that are sensitive to movement. As a unit of speed data, the speed data may be represented by “pixel / second” where a pixel pitch of a predetermined screen size is a unit of moving distance and a unit of time is second. For example, in a full high-definition moving image, one frame of video is composed of pixels of vertical 1080 × horizontal 1920, and the pixel pitch in a 40-inch screen size is 0.648 mm. This is the unit of distance. Alternatively, the speed data may be expressed in “/ milliseconds” where the unit from the left end to the right end of the screen is the unit of moving distance and the unit of time is milliseconds. Of course, it is not limited to these examples, and may be expressed by other methods.
As described above, the 3D video data 41 is generated in association with the speed data representing the movement of the viewer's viewpoint at each time, and is stored in the auxiliary storage unit 17.
≪3D 映像データ再生時の処理≫
続いて、この発明に係る3D 映像を再生するときの処理について説明する。
図2は、この発明に係る3D 映像の再生装置の構成例を示すブロック図である。図2に示すように、再生装置51は、映像取得部53、映像分離部55、映像バッファ57、記憶部61、表示制御部75、表示部77、2D 化映像生成部81、メッセージ表示生成部83、低速映像生成部85、制御部87、メニュー制御部89、リモコン受光部91および3D メガネ通信部95を含んでなる。図2では、3D メガネ97およびリモコン93を除いた各部は、一つの装置として構成されている。ただし、これは一例であり、変形例として表示部77がさらに別体である態様や、映像バッファ57までの各ブロックとそれ以降の各ブロックとが別体のシステムとしての態様も考えられる。
≪Processing when playing 3D video data≫
Next, processing when playing back 3D video according to the present invention will be described.
FIG. 2 is a block diagram showing a configuration example of a 3D video playback apparatus according to the present invention. As shown in FIG. 2, the playback apparatus 51 includes a video acquisition unit 53, a video separation unit 55, a video buffer 57, a storage unit 61, a display control unit 75, a display unit 77, a 2D video generation unit 81, and a message display generation unit. 83, a low-speed video generation unit 85, a control unit 87, a menu control unit 89, a remote control light receiving unit 91, and a 3D glasses communication unit 95. In FIG. 2, each part except 3D glasses 97 and the remote control 93 is comprised as one apparatus. However, this is only an example, and as a modification, a mode in which the display unit 77 is further separated, or a mode in which each block up to the video buffer 57 and each block thereafter are separated can be considered.
映像取得部53は、図1の撮影装置で作成された映像データ41とそれに対応する速度テーブル43とを取得する。具体的には、映像データ41および速度テーブル43の内容がDVDなどの記録メディアに記録されて配布され、映像取得部53は前記記録メディアに記録された映像データおよび速度テーブルを取得する。あるいは、異なる態様として、映像データ41および速度テーブル43の内容がインターネット等の通信手段を介してアクセス可能な状態で公開される。そして、映像取得部53は、通信手段を介して公開された映像データおよび速度テーブルにアクセスしオンデマンドであるいはダウンロードによりその映像データを取得してもよい。 The video acquisition unit 53 acquires the video data 41 created by the photographing apparatus of FIG. 1 and the speed table 43 corresponding thereto. Specifically, the contents of the video data 41 and the speed table 43 are recorded and distributed on a recording medium such as a DVD, and the video acquisition unit 53 acquires the video data and the speed table recorded on the recording medium. Alternatively, as a different aspect, the contents of the video data 41 and the speed table 43 are disclosed in a state where they can be accessed via communication means such as the Internet. Then, the video acquisition unit 53 may access the video data and speed table made public via the communication means and acquire the video data on demand or by download.
映像分離部55は、後述する2D 化映像生成部81、メッセージ表示生成部83や低速映像生成部85が取得した映像データを処理できるように時系列に分離する。即ち、3D 酔いに対する処理を行う部分とそれ以外の部分とを識別して分離する。映像バッファ57は、映像分離部55で処理された映像データを格納するバッファである。 The video separation unit 55 separates the video data acquired by the 2D video generation unit 81, the message display generation unit 83, and the low-speed video generation unit 85, which will be described later, in time series so as to be processed. That is, the part that performs processing for 3D sickness and the other part are identified and separated. The video buffer 57 is a buffer that stores the video data processed by the video separation unit 55.
記憶部61は、映像データの再生に関するデータを格納するメモリである。記憶部61は、速度テーブル63、閾値データ65、解像度データ67、補正方法指定69、サンプル映像データ71およびサンプル映像速度テーブル73を格納する。映像データをダウンロードする場合は、さらにダウンロードした映像データを格納する。 The storage unit 61 is a memory that stores data related to reproduction of video data. The storage unit 61 stores a speed table 63, threshold data 65, resolution data 67, correction method designation 69, sample video data 71, and sample video speed table 73. When downloading video data, the downloaded video data is further stored.
速度テーブル63は、再生すべき映像データに対応する速度テーブルであって、図1の速度テーブル43の内容が映像取得部53により取得されて記憶部61に格納される。
閾値データ65は、映像データに対して3D 酔いの対応を行うか否かを判断する閾値である。図2の例では、ユーザー(視聴者)ごとの閾値データを格納している。
解像度データ67は、映像データの解像度を示すデータである。奥行き方向すなわち立体度についても奥行き表現の細かさを仮想的な解像度として表している。
The speed table 63 is a speed table corresponding to video data to be reproduced, and the contents of the speed table 43 in FIG. 1 are acquired by the video acquisition unit 53 and stored in the storage unit 61.
The threshold data 65 is a threshold for determining whether or not to perform 3D sickness correspondence on video data. In the example of FIG. 2, threshold data for each user (viewer) is stored.
The resolution data 67 is data indicating the resolution of the video data. For the depth direction, that is, the degree of stereo, the fineness of depth expression is expressed as a virtual resolution.
補正方法指定69は、映像データの立体度が閾値を超える場合に3D 酔いの対応をどのように行うかの指定を保持している。図2の場合、当該補正は、2D 化、メッセージ表示あるいは低速映像の生成のいずれかである。ユーザーは設定メニューを用いていずれかの補正方法を指定する。指定された補正方法に基づいて、2D 化映像生成部81、メッセージ表示生成部83または低速映像生成部85のいずれかが3D 酔いの対応の処理を行う。なお、図2では、補正方法指定69は一つだけで各ユーザーに共通の設定であるかのように表記しているが、ユーザーごとに個別に指定できるようにしてもよい。 The correction method designation 69 holds designation of how to deal with 3D sickness when the stereoscopic degree of video data exceeds a threshold value. In the case of FIG. 2, the correction is either 2D conversion, message display, or low-speed video generation. The user designates one of the correction methods using the setting menu. Based on the specified correction method, any one of the 2D video generation unit 81, the message display generation unit 83, and the low speed video generation unit 85 performs processing for handling 3D sickness. In FIG. 2, only one correction method specification 69 is shown as if it is a setting common to each user, but it may be specified individually for each user.
サンプル映像データ71は、閾値データ65をユーザーごとに設定する際に表示部77に表示させる映像データである。例えば、視点の移動速度が次第に加速する3D 映像データである。ユーザーは、設定メニューを用いてこのサンプル映像データ71を表示部77に表示させる。ユーザーがその映像を視聴して不快に感じた時点でリモコン93を用いて所定の操作を行い、そのときの速度データを閾値として閾値データ65に記録する。サンプル映像速度テーブル73は、サンプル映像データ71に対応する速度テーブルである。その対応関係は、映像データ41と速度テーブル43との対応関係に相当するものである。 The sample video data 71 is video data to be displayed on the display unit 77 when the threshold data 65 is set for each user. For example, 3D video data in which the moving speed of the viewpoint gradually increases. The user displays the sample video data 71 on the display unit 77 using the setting menu. When the user views the video and feels uncomfortable, the user performs a predetermined operation using the remote controller 93 and records the speed data at that time in the threshold data 65 as a threshold. The sample video speed table 73 is a speed table corresponding to the sample video data 71. The correspondence relationship corresponds to the correspondence relationship between the video data 41 and the speed table 43.
表示制御部75は、表示部77の画面表示を制御する回路である。表示部77は、3D 映像が表示可能な液晶表示装置である。ただし、表示部77は液晶表示装置に限定されるものでない。異なる動作原理のプラズマディスプレイ表示装置や有機EL表示装置であってもよく、また、方式の異なる投影型の表示装置であってもよい。
2D 化映像生成部81は、3D 酔いの対応処理として、映像データを3D 表示から2D 表示に切換える処理を行う。
The display control unit 75 is a circuit that controls the screen display of the display unit 77. The display unit 77 is a liquid crystal display device capable of displaying 3D video. However, the display unit 77 is not limited to the liquid crystal display device. It may be a plasma display display device or an organic EL display device with different operating principles, or may be a projection type display device with a different system.
The 2D video generation unit 81 performs a process of switching video data from 3D display to 2D display as a 3D sickness response process.
メッセージ表示生成部83は、3D 酔いの対応処理として、3D 映像データの表示を一時的にやめ断りのメッセージを表示する処理を行う。具体的な例としては、「ただ今体調に悪影響を与えかねない、激しい動きのため、画面をオフにしています」といったメッセージを3D 映像に代えて表示部77に表示する。 The message display generation unit 83 performs a process of temporarily stopping the display of 3D video data and displaying a message for refusing the display as a 3D sickness response process. As a specific example, a message such as “The screen is turned off due to intense movement that may have a negative effect on the physical condition” is displayed on the display unit 77 instead of the 3D video.
低速映像生成部85は、3D 酔いの対応処理として、3D 映像データの再生速度を落とす処理を行う。この場合、音声も連動させる。あるいは、映像データの表示コマを間引いていわば紙芝居のような再生にしてもよい。単位時間あたりの画面変化を減らして目の負担を少なくする手法である。 The low-speed video generation unit 85 performs processing for reducing the playback speed of 3D video data as processing for 3D sickness. In this case, the voice is also linked. Alternatively, it may be reproduced like a picture-story show by thinning out display frames of video data. This is a technique to reduce the burden on the eyes by reducing screen changes per unit time.
制御部87は、映像データの再生に係る各ブロックの制御を行う。なお、制御部87はCPUあるいはマイクロコンピュータが処理プログラムを実行することによりその機能が実現されてもよい。さらにそのCPUあるいはマイクロコンピュータは、制御部用処理プログラムとは別のプログラムを実行することにより、他のブロックの機能を実現してもよい。例えば、映像分離部55、2D 化映像生成部81、メッセージ表示生成部83低速映像生成部85やメニュー制御部89などの機能である。 The control unit 87 controls each block related to reproduction of video data. The function of the control unit 87 may be realized by the CPU or the microcomputer executing the processing program. Furthermore, the CPU or the microcomputer may realize functions of other blocks by executing a program different from the control unit processing program. For example, the functions of the video separation unit 55, the 2D video generation unit 81, the message display generation unit 83, the low-speed video generation unit 85, the menu control unit 89, and the like.
メニュー制御部89は、閾値データ65の設定や補正方法指定69の指定をユーザーが行うために用いる設定メニューを表示部77に表示させる制御を行う。
リモコン受光部91は、外部のリモコン93からの信号を受信する回路である。リモコン93は、視聴者がこの再生装置51に対する指示を行う際の操作に用いる。その指示には、前述の設定メニューを用いた閾値データ65の設定や補正方法指定69の設定が含まれる。
3D メガネ通信部95は、視聴者が3D 映像を視聴する際に装着する3D メガネ97との間で無前通信を行う。通信は3D メガネ97が有するシャッターの制御に関する。
The menu control unit 89 controls the display unit 77 to display a setting menu used for the user to set the threshold data 65 and specify the correction method specification 69.
The remote control light receiving unit 91 is a circuit that receives a signal from the external remote control 93. The remote controller 93 is used for an operation when the viewer gives an instruction to the playback device 51. The instruction includes the setting of the threshold data 65 and the setting of the correction method designation 69 using the setting menu described above.
The 3D glasses communication unit 95 performs unprecedented communication with the 3D glasses 97 worn when the viewer views 3D video. Communication relates to control of the shutter of the 3D glasses 97.
≪3D 酔い対応の具体例≫
次に、撮影装置の移動、即ち、視聴者の視点の移動と3D 映像表示を対応させつつ、この発明に係る3D 酔い対応の具体例を説明する。
図3は、この発明に係る撮影装置11に対応するカメラが撮影対象31に対し撮影位置を変化させる例を示す説明図である。図3に示すように、撮影装置11は、初期の(a)撮影開始位置から、1000画素/秒の移動速度で(b)の矢印に沿って直線状に左斜め前方へ移動し撮影対象31に接近する。続いて、(c)の矢印に示すように右方へ回転する。回転は、擬似的に微少な直線運動の連続に換算する。換算された移動速度は、4000画素/秒である。次いで撮影装置11は、(d)の矢印に沿って500画素/秒の速度で直線状に移動する。
≪Specific example of 3D sickness correspondence≫
Next, a specific example of 3D sickness handling according to the present invention will be described while associating the movement of the photographing apparatus, that is, the movement of the viewer's viewpoint and the 3D video display.
FIG. 3 is an explanatory diagram showing an example in which the camera corresponding to the photographing apparatus 11 according to the present invention changes the photographing position with respect to the photographing object 31. As shown in FIG. 3, the photographing apparatus 11 moves from the initial (a) photographing start position to the left obliquely forward in a straight line along the arrow (b) at a moving speed of 1000 pixels / second. To approach. Then, it rotates to the right as shown by the arrow in (c). The rotation is converted into a continuation of a pseudo minute linear motion. The converted moving speed is 4000 pixels / second. Next, the photographing device 11 moves linearly along the arrow (d) at a speed of 500 pixels / second.
図4は、図3の(a)〜(d)の移動に対応する映像を示す説明図である。ただし、図4は、3D 酔い対応を行う前の映像を示している。図4(a)は、撮影開始時の映像であり、画面中央付近の遠方に撮影対象31が写っている。図4(b)は、図3の矢印(b)に沿った移動の前後における撮影対象31の変化を示している。なお、矢印は時間の流れを示すために付したものであり、矢印が画面に写っている訳ではない。移動の初めは矢印の始点側のように写っている対象物が移動の終わりには矢印の先端側のように写っていることを示している。即ち、図3の矢印(b)の移動の前後で、撮影対象31は画面中央付近から次第に画面右方へ移動しかつクローズアップされる。 FIG. 4 is an explanatory diagram showing an image corresponding to the movement of (a) to (d) of FIG. However, FIG. 4 shows an image before 3D sickness handling is performed. FIG. 4A is an image at the start of shooting, and the shooting target 31 is shown far away near the center of the screen. FIG. 4B shows a change of the photographing object 31 before and after the movement along the arrow (b) in FIG. The arrows are added to show the flow of time, and the arrows are not shown on the screen. It shows that the object shown at the beginning of the movement is shown as the start point side of the arrow and is shown as the tip side of the arrow at the end of the movement. That is, before and after the movement of the arrow (b) in FIG. 3, the photographing object 31 gradually moves from the vicinity of the center of the screen to the right side of the screen and is close-up.
図4(c)は、図3の矢印(c)に示す回転の前後を示す。図4(c)に示すように、撮影対象31は、大きさをほぼ維持しつつ画面の右端部から左端部へ移動する。図4(d)は、図3の矢印(d)の移動の前後を示す。撮影対象31は、画面左端部からさらに左方へかつ遠方へさらに移動しやがて画面の外へ去っていく。 FIG. 4C shows before and after the rotation shown by the arrow (c) in FIG. As shown in FIG. 4C, the photographing object 31 moves from the right end portion to the left end portion of the screen while maintaining the size. FIG. 4D shows before and after movement of the arrow (d) in FIG. The subject 31 moves further to the left and further away from the left end of the screen, and eventually leaves the screen.
図4の映像に対して、3D 酔い対応を行う具体例を説明する。この実施形態において、3D 酔い対応を行うか否かの閾値は、3000画素/秒に設定されているものとする。そうすると、図4の(a)撮影開始から(d)移動までの映像のうち、視聴者の視点の移動速度が前述の閾値を超える映像は(c)回転の段階の映像である。
映像分離部55は、図4(a)、(b)の映像のパケットと図4(c)の映像を分離し、図4(c)の映像と(d)の映像のパケットを分離する。そして、図4(c)の映像データに対し3D 酔い対応を行うべき旨の属性を付加する。
A specific example of performing 3D sickness correspondence on the video in FIG. 4 will be described. In this embodiment, it is assumed that the threshold value for determining whether to perform 3D sickness correspondence is set to 3000 pixels / second. Then, among the images from (a) the start of shooting to (d) movement in FIG. 4, the images in which the moving speed of the viewer's viewpoint exceeds the above-described threshold are (c) images at the rotation stage.
The video separation unit 55 separates the video packet of FIGS. 4A and 4B and the video of FIG. 4C, and separates the video packet of FIG. 4C and the video packet of FIG. Then, an attribute indicating that 3D sickness correspondence should be performed is added to the video data in FIG.
2D 化映像生成部81、メッセージ表示生成部83および低速映像生成部85は、映像分離部55により映像データに付加された前記属性と、補正方法指定69とを監視している。補正方法指定69による指定がなされた2D 化映像生成部81、メッセージ表示生成部83または低速映像生成部85は、映像バッファ57から取り出した映像データのパケットに前記属性が付加されている場合、そのパケットの映像データに対して処理を行う。なお、補正方法指定69による指定がされていないものは、処理を行わない。
図5は、この発明に係る3D 映像に3D 酔い対応を行う例を示す説明図である。図5で、(c)入力映像は、図4(c)の映像と同一のものであり、2D 化映像生成部81、メッセージ表示生成部83および低速映像生成部85がそれぞれ3D 酔い対応を行う対象の映像である。
The 2D video generation unit 81, the message display generation unit 83, and the low speed video generation unit 85 monitor the attribute added to the video data by the video separation unit 55 and the correction method designation 69. When the attribute is added to the packet of the video data taken out from the video buffer 57, the 2D video generation unit 81, the message display generation unit 83, or the low-speed video generation unit 85 specified by the correction method specification 69 It processes the video data of the packet. In addition, the processing that is not designated by the correction method designation 69 is not performed.
FIG. 5 is an explanatory diagram showing an example in which 3D sickness correspondence is performed on the 3D video according to the present invention. In FIG. 5, (c) the input video is the same as the video in FIG. 4 (c), and the 2D video generation unit 81, the message display generation unit 83, and the low-speed video generation unit 85 each perform 3D sickness support. This is the target video.
図5(c−1)は、図5(c)の入力映像に対する2D 化映像生成部81の出力映像を示している。2D 化映像生成部81は、入力映像から視差をなくした映像を生成して出力する。即ち、図5(c)の入力映像には、右眼用映像と左眼用映像が含まれるが、それらの映像は異なる視点から同じ撮影対象31を観たものである。これを2D 映像化する最も単純な手法は、左眼用映像を右眼用映像で置換しあるいは右眼用映像を左眼用映像で置換して右眼用映像と左眼用映像を同一にするものである。 FIG. 5 (c-1) shows an output video of the 2D video generation unit 81 for the input video of FIG. 5 (c). The 2D video generation unit 81 generates and outputs a video with no parallax from the input video. That is, the input video in FIG. 5C includes a right-eye video and a left-eye video, and these videos are obtained by viewing the same subject 31 from different viewpoints. The simplest method for converting this to 2D video is to replace the left-eye video with the right-eye video, or the right-eye video with the left-eye video, and make the right-eye video and left-eye video the same. To do.
図5(c−2)は、図5(c)の入力映像に対するメッセージ表示生成部83の出力映像を示している。メッセージ表示生成部83は、入力映像に代えて「ただ今、激しい動きのため、画面をオフしています」のメッセージを出力する。なお、このとき入力映像を完全にオフするのではなく、縮小した映像を画面の一部に表示したり、輝度を落とした映像をメッセージの背景に表示したりして視聴者がストーリーの進行を把握できるようにしてもよい。 FIG. 5C-2 shows an output video of the message display generation unit 83 for the input video of FIG. 5C. The message display generation unit 83 outputs a message “The screen is turned off due to intense movement” instead of the input video. At this time, instead of turning off the input video completely, the reduced video is displayed on a part of the screen, or the video with reduced brightness is displayed on the background of the message so that the viewer can progress the story. You may make it understandable.
図5(c−3)は、図5(c)の入力映像に対する低速映像生成部85の出力映像を示している。低速映像生成部85は、視聴者の視点の移動が閾値以下になるように再生速度を落として映像を表示する。あるいは、入力映像のフレームを間引いてコマ送りのように再生する。なお、このときに低速再生あるいはフレームの間引きをしている旨のメッセージを表示してもよい。 FIG. 5C-3 shows the output video of the low-speed video generation unit 85 for the input video shown in FIG. The low-speed video generation unit 85 displays the video at a low playback speed so that the movement of the viewer's viewpoint is below the threshold. Alternatively, the frames of the input video are thinned out and reproduced as frame-by-frame. At this time, a message indicating that the playback is slow or the frame is thinned may be displayed.
≪映像データ作成の処理手順≫
以下、映像データの捕捉を行う場合に速度データ生成部29が行う処理の手順を説明する。
図6は、この発明に係る速度データ生成部29が映像データ捕捉の際に実行する処理の手順を示すフローチャートである。図6に示すように、映像データの捕捉が開始されると、速度データ生成部29は、距離検出デバイス25が検出するレンズ焦点距離の情報を読取る(ステップS11)。レンズ焦点距離は、撮影対象までの奥行き方向の距離を提供する。さらに速度データ生成部29は、角速度センサ23が検出する角速度の情報を読取る(ステップS13)。これは、視聴者が視点の向きを変える回転の速さを与える。
≪Video data creation processing procedure≫
Hereinafter, a procedure of processing performed by the speed data generation unit 29 when capturing video data will be described.
FIG. 6 is a flowchart showing a procedure of processing executed by the speed data generation unit 29 according to the present invention when capturing video data. As shown in FIG. 6, when the capture of video data is started, the speed data generation unit 29 reads information on the lens focal length detected by the distance detection device 25 (step S11). The lens focal length provides the distance in the depth direction to the subject. Further, the speed data generation unit 29 reads information on the angular velocity detected by the angular velocity sensor 23 (step S13). This gives the speed of rotation at which the viewer changes the orientation of the viewpoint.
速度データ生成部29は、焦点距離あるいは角速度に変化があったか否かを判断する(ステップS15)。変化があった場合、角速度→速度変換部27を用いて焦点距離と角速度の情報をxyz方向の移動速度の情報に変換し(ステップS17)、変換された移動速度を検出の時刻tと共に補助記憶部17の速度テーブル43に書き込む(ステップS19)。前記ステップS15で変化がない場合、ルーチンはステップS21へ進む。 The speed data generation unit 29 determines whether or not there has been a change in the focal length or the angular speed (step S15). If there is a change, the information on the focal length and the angular velocity is converted into the information on the moving speed in the xyz direction using the angular velocity → speed converting unit 27 (step S17), and the converted moving speed is stored together with the detection time t. Write to the speed table 43 of the unit 17 (step S19). If there is no change in step S15, the routine proceeds to step S21.
速度データ生成部29は、加速度センサ21が検出する加速度の情報を読取る(ステップS21)。そして、加速度に変化があったか否かを判断し(ステップS23)、変化があった場合は、検出された加速度情報をxyz方向の速度情報に変換し(ステップS25)、変換された移動速度を検出の時刻tと共に補助記憶部17の速度テーブル43に書き込む。前記ステップS19で速度テーブル43に既にデータが書き込まれている場合は、そのデータを補正する(ステップS27)。前記ステップS23で変化がない場合、ルーチンはステップS29へ進む。 The speed data generation unit 29 reads information on acceleration detected by the acceleration sensor 21 (step S21). Then, it is determined whether or not there is a change in acceleration (step S23). If there is a change, the detected acceleration information is converted into speed information in the xyz direction (step S25), and the converted moving speed is detected. Is written in the speed table 43 of the auxiliary storage unit 17 together with the time t. If data has already been written in the speed table 43 in step S19, the data is corrected (step S27). If there is no change in step S23, the routine proceeds to step S29.
速度データ生成部29は、次のサンプリング時刻として現在時刻tを更新する(ステップS29)。そして、映像データの捕捉が続いるか否かを判断する(ステップS31)。捕捉が続いている場合(ステップS31のNO)、ルーチンはステップS11へ進み、サンプリングを繰り返す。捕捉が終了した場合(ステップS31のYES)、捕捉されて補助記憶部17に格納された映像データ41と速度テーブル43とを対応づけておく。
以上が撮影時に速度データ生成部29が行う処理である。
The speed data generation unit 29 updates the current time t as the next sampling time (step S29). Then, it is determined whether or not the video data capture continues (step S31). If capture continues (NO in step S31), the routine proceeds to step S11 and repeats sampling. When the capturing is completed (YES in step S31), the video data 41 captured and stored in the auxiliary storage unit 17 is associated with the speed table 43.
The above is the processing performed by the speed data generation unit 29 during shooting.
≪閾値設定および補正方法指定の処理手順≫
次に、図2の閾値データ65を設定する際に、再生装置のメニュー制御部87が実行する処理の手順を説明する。この実施形態において、メニュー制御部89の機能は、CPUが制御プログラムを実行することにより実現される。
≪Threshold setting and correction method specification process≫
Next, a procedure of processing executed by the menu control unit 87 of the playback device when setting the threshold data 65 of FIG. 2 will be described. In this embodiment, the function of the menu control unit 89 is realized by the CPU executing a control program.
図7は、この発明に係る閾値データ65を設定する際に、再生装置のメニュー制御部89が実行する処理の手順を示すフローチャートである。図7に示すように、メニュー制御部89としてのCPUは、ユーザーがリモコン93を操作したことにより発せられた光信号をリモコン受光部91が検出したことに応答し、表示部77に閾値設定用のメニューを表示させる。最初に表示させるメニューは、ユーザーの新規登録または選択、および、閾値をユーザーが直接設定するか(直接入力)、サンプル映像を用いた簡易な設定を行うかの選択メニューである(ステップS41)。この選択メニューの表示に対してユーザーがリモコン93を操作して指示を行うと、前記CPUは、指示の内容を判断する(ステップS43)。閾値を直接設定する旨の指示を受けた場合(ステップS43のYES)、前記CPUは、ユーザーがリモコン93を操作して入力するxyz方向の速度の閾値を受付ける(ステップS45)。そして、そのユーザーの閾値データ65の値を更新する(ステップS47)。その後、ルーチンは補正方法の指定を受付けるステップS61へ進む。 FIG. 7 is a flowchart showing a procedure of processing executed by the menu control unit 89 of the playback apparatus when setting the threshold data 65 according to the present invention. As shown in FIG. 7, the CPU as the menu control unit 89 responds to the fact that the remote control light receiving unit 91 detects the optical signal emitted when the user operates the remote control 93, and sets the threshold value on the display unit 77. Display the menu. The menu to be displayed first is a selection menu for new registration or selection of the user and whether the user directly sets the threshold (direct input) or simple setting using the sample video (step S41). When the user gives an instruction to display the selection menu by operating the remote controller 93, the CPU determines the content of the instruction (step S43). When receiving an instruction to directly set the threshold value (YES in step S43), the CPU accepts a threshold value for the speed in the xyz direction input by the user operating the remote controller 93 (step S45). Then, the value of the threshold data 65 of the user is updated (step S47). Thereafter, the routine proceeds to step S61 where the designation of the correction method is accepted.
前記ステップS43で、サンプル映像を用いた簡易な設定が選択された場合(ステップS43のNO)、前記CPUは、表示部77に設定方法の説明を表示した後設定用のサンプル映像データ71を表示させる(ステップS51)。サンプル映像は、例えば、視点の移動速度が次第に速くなる3D 映像データである。ユーザーがその映像を視聴して不快に感じた時点でリモコン93を用いて所定の操作を行う。サンプル映像は、複数あってもよい。例えば、xyz方向にそれぞれ移動する映像であってもよい。あるいは、移動方向を同じくするが撮影対象が異なる複数の映像であってもよい。この場合、ユーザーは各映像について所定の操作を行う。 When a simple setting using the sample video is selected in step S43 (NO in step S43), the CPU displays the explanation of the setting method on the display unit 77 and then displays the sample video data 71 for setting. (Step S51). The sample video is, for example, 3D video data in which the moving speed of the viewpoint is gradually increased. When the user views the video and feels uncomfortable, a predetermined operation is performed using the remote controller 93. There may be a plurality of sample images. For example, the images may move in the xyz direction. Alternatively, a plurality of videos having the same moving direction but different shooting targets may be used. In this case, the user performs a predetermined operation for each video.
前記CPUは、ユーザーが所定の操作を行ったか否かを監視し(ステップS53)。入力があった場合は(ステップS53のYES)、その時刻のサンプル映像速度テーブル73の値を取得する(ステップS55)。そして、そのユーザーの閾値データ65の値を更新する(ステップS57)。サンプル映像が終了するまで、処理を繰り返す(ステップS59のNOのループ)。
サンプル映像を用いた設定が終了したら(ステップS59のYES)、ルーチンはステップS61へ進む。
The CPU monitors whether the user has performed a predetermined operation (step S53). If there is an input (YES in step S53), the value of the sample video speed table 73 at that time is acquired (step S55). Then, the value of the threshold data 65 of the user is updated (step S57). The process is repeated until the sample video ends (NO loop in step S59).
When the setting using the sample video is completed (YES in step S59), the routine proceeds to step S61.
続いて、前記CPUは、補正方法指定69の設定メニューを表示部77に表示させる(ステップS61)。この実施形態では、映像の2D 化、メッセージ表示あるいは低速再生の3つの選択肢の何れかの選択を求めるものである。ユーザーがリモコン93を用いて何れか一つを選択する操作を行うと、前記CPUはその操作に応答して、選択された設定を補正方法指定69に格納する(ステップS63)。
以上が、閾値設定および補正方法指定の処理である。
なお、この実施形態では、閾値設定と補正方法の指定を一連のものとしているが、それらを個別の設定メニューとして受付けるようにしてもよい。
Subsequently, the CPU displays a setting menu for the correction method designation 69 on the display unit 77 (step S61). In this embodiment, it is required to select one of the three options of 2D video, message display, or slow playback. When the user performs an operation of selecting any one using the remote controller 93, the CPU stores the selected setting in the correction method designation 69 in response to the operation (step S63).
The above is the threshold setting and correction method designation processing.
In this embodiment, the threshold setting and the correction method designation are made in a series, but they may be accepted as individual setting menus.
≪3D 映像再生時の処理−通常の映像データ再生≫
続いて、映像を再生する際に、前記CPUが制御部87、映像分離部55、2D 化映像生成部81、メッセージ表示生成部83低速映像生成部85やメニュー制御部89として実行する処理を説明する。
図8および図9は、この発明に係る再生装置51の前記CPUが再生時に行う処理の手順を示すフローチャートである。フローチャートに沿って処理の手順を説明する。なお、フローチャートには示していないが、制御部87として前記CPUは、映像データを再生する指示を受けたときまずユーザーを特定する処理を行ってもよい。この処理は、閾値データ65や補正方法指定69に係るユーザーを特定するためである。具体的には、識別コードの入力を求める等するメニューを表示し、入力された内容に基づいてユーザーを特定するようにしてもよい。
≪Process during 3D video playback-normal video data playback≫
Subsequently, the processing executed by the CPU as the control unit 87, the video separation unit 55, the 2D video generation unit 81, the message display generation unit 83, the low-speed video generation unit 85, and the menu control unit 89 when the video is reproduced will be described. To do.
8 and 9 are flowcharts showing a procedure of processing performed by the CPU of the playback device 51 according to the present invention during playback. A processing procedure will be described with reference to a flowchart. Although not shown in the flowchart, the CPU as the control unit 87 may first perform processing for specifying a user when receiving an instruction to reproduce video data. This process is for identifying the user related to the threshold data 65 and the correction method designation 69. Specifically, a menu for requesting the input of an identification code may be displayed, and the user may be specified based on the input content.
まず、図8に沿って、映像データの再生を説明する。3D 酔い対応については、図9で後述する。ユーザーがリモコン93を操作して再生の指示を行うと、前記CPUは、制御部87としてその指示を受付け、映像取得部53に再生すべき映像データと速度テーブルを取得させる。取得した速度テーブルは速度テーブル63として記憶部61に格納しておく。そして、映像データと速度テーブルの同期に使用する時刻データtの値を初期化する(ステップS71)。時刻データtは、映像データの再生が進むにつれて更新される。即ち、時刻データtは、映像データのどの時刻のフレームが再生されているかを表す。また、速度テーブル63の参照に用いるインデックスiの値を初期化する(ステップS73)。 First, video data reproduction will be described with reference to FIG. The 3D sickness response will be described later with reference to FIG. When the user operates the remote controller 93 to give a playback instruction, the CPU accepts the instruction as the control unit 87 and causes the video acquisition unit 53 to acquire video data and a speed table to be played back. The acquired speed table is stored in the storage unit 61 as a speed table 63. Then, the value of the time data t used for synchronizing the video data and the speed table is initialized (step S71). The time data t is updated as the reproduction of the video data proceeds. That is, the time data t represents which time frame of the video data is being reproduced. Further, the value of the index i used for referring to the speed table 63 is initialized (step S73).
次に、映像分離部55として前記CPUは、インデックスiで参照される速度テーブルの時刻t(i)を取得する(ステップS75)。そして、映像データの再生が進み、時刻データtがt(i)に達するのを待つ(ステップS77)。時刻データtがt(i)に達する前の段階では、前記CPUはステップS77で「NO」と判定し、ルーチンはステップS89へ進む。ここで前記CPUは、映像取得部53が取得した映像データを映像バッファ57に入力して映像の再生を進行させる(ステップS89)。このときの映像データには、3D 対応すべき旨の属性を付加しない。そして、再生の進行に対応して時刻データtを更新する(ステップS91)。映像データが終了しない限り(ステップS93のNO)、ルーチンはステップS77へ戻るループを辿る。なお、理解しやすいようにフローチャート上はループ処理にしているが、繰り返し処理は時分割のマルチタスク処理として実行される。 Next, the CPU as the video separation unit 55 acquires time t (i) of the speed table referred to by the index i (step S75). Then, the reproduction of the video data proceeds and waits for the time data t to reach t (i) (step S77). Before the time data t reaches t (i), the CPU makes a “NO” determination at step S77, and the routine proceeds to step S89. Here, the CPU inputs the video data acquired by the video acquisition unit 53 to the video buffer 57 and advances the playback of the video (step S89). At this time, the attribute indicating that 3D support is to be added is not added to the video data. Then, the time data t is updated in accordance with the progress of reproduction (step S91). As long as the video data does not end (NO in step S93), the routine follows a loop returning to step S77. In addition, although loop processing is performed on the flowchart for easy understanding, iterative processing is executed as time-division multitask processing.
やがて、時刻データtがt(i)に達すると、前記CPUは前記ステップS77で「YES」と判定し、ルーチンはステップS79へ進む。そして、前記CPUは、速度テーブル63のうちインデックスiが示す速度データを参照する。そして、その速度データと閾値データ65との大小関係を比較する(ステップS83)。なお、速度テーブルの速度データと閾値データ65とで異なる単位を使用する装置の場合は、前述した比較に先立ち単位をそろえるための換算を行う(ステップS81)。 Eventually, when the time data t reaches t (i), the CPU determines “YES” in step S77, and the routine proceeds to step S79. Then, the CPU refers to the speed data indicated by the index i in the speed table 63. Then, the magnitude relationship between the speed data and the threshold data 65 is compared (step S83). In the case of an apparatus that uses different units for the speed data in the speed table and the threshold data 65, conversion for aligning the units is performed prior to the comparison described above (step S81).
前記ステップS83の比較において、速度テーブルから得られた速度データが閾値データ65を超えていない場合(ステップS83のNO)、前記CPUは、3D 酔い対応を行う必要がないと判断し、ルーチンをステップS85へ進める。このルーチンは、取得した映像データを映像バッファ57に入力して再生を進行させるステップS89へと続く。しかし、その前に、インデックスiを更新して(ステップS85)、速度テーブル63の次のデータを参照するようにし、更新されたインデックスを用いて時刻データtがt(i)を取得する(ステップS87)。その後、ルーチンはステップS89、S91、S93、S77のルートを辿り、時刻データtが新たに取得された時刻t(i)に達するまで映像の再生を続ける。
なお、映像データが終了した場合は、ステップS93で前記CPUは「YES」と判定し、再生処理を終了する。
If the speed data obtained from the speed table does not exceed the threshold data 65 in the comparison in step S83 (NO in step S83), the CPU determines that there is no need to perform 3D sickness handling, and the routine steps. Proceed to S85. This routine continues to step S89 where the acquired video data is input to the video buffer 57 and playback is advanced. However, before that, the index i is updated (step S85), the next data in the speed table 63 is referred to, and the time data t is obtained by using the updated index (step (i)). S87). Thereafter, the routine follows the route of steps S89, S91, S93, and S77, and continues to reproduce the video until the time data t reaches the newly acquired time t (i).
If the video data has been completed, the CPU makes a “YES” determination at step S93 to end the reproduction process.
一方、前記ステップS83において、速度データが閾値データ65を超えていると判断した場合(ステップS83のYES)、前記CPUは、その映像データをそれ以前の映像データと分離する。そして、分離した映像データに3D 酔い対応を行うべきことを示す属性を付加した後に映像バッファ57に入力する(ステップS95)。そして、ルーチンはステップS91へ進む。 On the other hand, if it is determined in step S83 that the speed data exceeds the threshold data 65 (YES in step S83), the CPU separates the video data from the previous video data. Then, an attribute indicating that 3D sickness correspondence should be performed is added to the separated video data, and then input to the video buffer 57 (step S95). Then, the routine proceeds to step S91.
≪3D 映像再生時の処理−3D 酔い対応の処理≫
さらに図9に基づいて、3D 酔い対応の処理について説明する。図9は、前記CPUが2D 化映像生成部81、メッセージ表示生成部83低速映像生成部85として行う処理を主として示すフローチャートである。
前記CPUは、映像バッファ57から出力されて表示制御部75に渡される映像データに3D 酔い対応をすべき属性が付加されているか否かを監視する(ステップS100)。前記属性が付加されていない場合、即ち、前述のステップS89の処理を経て映像バッファ57に入力された映像データの場合(ステップS100のNO)、前記CPUは、補正処理を施すことなくその映像データを表示制御部75に渡す(ステップS133)。表示制御部75は、渡された映像データを表示部77に表示する。映像データが終了しない限り(ステップS135のNO)、ルーチンはステップS103へ戻り処理を繰り返す。なお、理解しやすいようにフローチャート上はループ処理にしているが、繰り返し処理は時分割のマルチタスク処理として実効される。
≪Processing during 3D video playback-3D sickness handling process≫
Furthermore, 3D sickness handling processing will be described with reference to FIG. FIG. 9 is a flowchart mainly showing processing performed by the CPU as the 2D video generation unit 81, the message display generation unit 83, and the low-speed video generation unit 85.
The CPU monitors whether the video data output from the video buffer 57 and passed to the display control unit 75 has an attribute for handling 3D sickness (step S100). When the attribute is not added, that is, in the case of video data input to the video buffer 57 through the process of step S89 described above (NO in step S100), the CPU does not perform the correction process and the video data Is transferred to the display control unit 75 (step S133). The display control unit 75 displays the passed video data on the display unit 77. Unless the video data ends (NO in step S135), the routine returns to step S103 and repeats the process. Note that although loop processing is used in the flowchart for easy understanding, the iterative processing is performed as time-division multitask processing.
前述のステップS95で3D 酔い対応をすべき旨の属性が付加されている場合、即ち、前述のステップS95の処理を経て映像バッファ57に入力された映像データの場合(ステップS100のYES)、前記CPUは、補正方法指定69の設定を取得する(ステップS101)。ユーザーごとに設定されている場合は、ユーザーに応じた補正方法を取得する。 In the case where the attribute indicating that 3D sickness support is to be added in step S95 described above, that is, in the case of video data input to the video buffer 57 through the process in step S95 described above (YES in step S100), The CPU acquires the setting of the correction method designation 69 (step S101). If it is set for each user, a correction method corresponding to the user is acquired.
そして、補正方法に応じた処理を行う。まず、取得した補正方法が、低速再生であるか否かを判断する(ステップS103)。低速再生であれば(ステップS103のYES)、ルーチンはステップS121へ進む。一方、低速再生でなければ(ステップS103のNO)、ルーチンはステップS105へ進み、補正方法がメッセージ表示であるか否かを判断する。メッセージ表示であれば(ステップS105のYES)、ルーチンはステップS111へ進む。一方、メッセージ表示でなければ(ステップS105のNO)、ルーチンはステップS107へ進み2D 化の処理を行う。 Then, processing according to the correction method is performed. First, it is determined whether or not the acquired correction method is low-speed playback (step S103). If it is slow playback (YES in step S103), the routine proceeds to step S121. On the other hand, if it is not low-speed reproduction (NO in step S103), the routine proceeds to step S105, and determines whether or not the correction method is message display. If the message is displayed (YES in step S105), the routine proceeds to step S111. On the other hand, if the message is not displayed (NO in step S105), the routine proceeds to step S107 and performs 2D processing.
具体的には、2D 化映像生成部81として前記CPUは、左眼用の映像データを右眼用の映像データに置換して、両方の眼が右眼用の映像データを観るようにする。このようにすれば、右眼用の映像データと左眼用の映像データの視差がなくなり、視聴者は立体感を感じなくなる。勿論、右眼用の映像データを左眼用のデータに置換して両方の眼が左眼用の映像データを観るようにしてもよい。
また、映像データを置換するのではなく、3D メガネ97の両眼のシャッター制御を変更してもよい。
Specifically, the CPU as the 2D video generation unit 81 replaces the video data for the left eye with the video data for the right eye so that both eyes view the video data for the right eye. In this way, there is no parallax between the video data for the right eye and the video data for the left eye, and the viewer does not feel a stereoscopic effect. Of course, the video data for the right eye may be replaced with the data for the left eye so that both eyes can view the video data for the left eye.
Further, instead of replacing the video data, the shutter control for both eyes of the 3D glasses 97 may be changed.
通常の3D 映像再生時は、左眼用の映像データと右眼用の映像データを1フレームずつ交互に表示部77に表示し、それに同期して3D メガネ97のシャッターを交互にオン/オフしている。即ち、表示部77に右眼用の映像データを表示しているときは3D メガネ97の右眼のシャッターを開き左眼のシャッターを閉じるように制御している。次のフレームで表示部77に左眼用の映像データを表示しているときは3D メガネ97の右眼のシャッターを閉じ左眼のシャッターを開くように制御している。これを交互に繰り返している。これに対し映像を2D 化するときは、表示部77に右眼用の映像データを表示しているときに3D メガネ97の右眼と左眼の両方のシャッターとを開く。そして、次のフレームで表示部77に左眼用の映像データを表示しているときは3D メガネ97の右眼と左眼の両方のシャッターを閉じる。このようにして、両眼が右眼用の映像のみを観るようにするのである。あるいは、逆に表示部77に左眼用の映像データを表示しているときに両眼のシャッターを開き、右眼用の映像データを表示しているときは両眼のシャッターを閉じるようにして、両眼が左眼用の映像のみを観るようにしてもよい。
そして前記CPUは、映像データを表示制御部75に渡す(ステップS133)。映像データを渡された表示制御部75は、この補正された映像データを表示部77に表示する。映像データが終了するまでS100からS133の処理を繰り返す(ステップS135)。
During normal 3D video playback, left-eye video data and right-eye video data are alternately displayed on the display unit 77 one frame at a time, and the shutter of the 3D glasses 97 is alternately turned on / off in synchronization therewith. ing. That is, when the right-eye video data is displayed on the display unit 77, control is performed such that the right-eye shutter of the 3D glasses 97 is opened and the left-eye shutter is closed. When video data for the left eye is displayed on the display unit 77 in the next frame, control is performed so that the right eye shutter of the 3D glasses 97 is closed and the left eye shutter is opened. This is repeated alternately. On the other hand, when converting the video into 2D, the right-eye shutter and the left-eye shutter of the 3D glasses 97 are opened while the right-eye video data is displayed on the display unit 77. Then, when the left-eye video data is displayed on the display unit 77 in the next frame, the shutters of both the right eye and the left eye of the 3D glasses 97 are closed. In this way, both eyes are allowed to watch only the video for the right eye. Alternatively, the binocular shutter is opened when the left-eye video data is displayed on the display unit 77, and the binocular shutter is closed when the right-eye video data is displayed. Alternatively, both eyes may view only the video for the left eye.
Then, the CPU passes the video data to the display control unit 75 (step S133). The display control unit 75 that has received the video data displays the corrected video data on the display unit 77. The processes from S100 to S133 are repeated until the video data is finished (step S135).
一方、前記ステップS105で補正方法がメッセージ表示である場合、メッセージ表示生成部83として前記CPUは、映像バッファ57から出力される映像データに代えて表示すべきメッセージの映像データを生成する(ステップS111)。そして、前記映像データを生成したメッセージに代えて(ステップS113)表示制御部75に渡す(ステップS133)。映像データが終了するまでS100からS133の処理を繰り返す(ステップS135)。 On the other hand, when the correction method is message display in step S105, the CPU as the message display generation unit 83 generates video data of a message to be displayed instead of the video data output from the video buffer 57 (step S111). ). Then, the video data is replaced with the generated message (step S113) and is transferred to the display control unit 75 (step S133). The processes from S100 to S133 are repeated until the video data is finished (step S135).
また、一方、前記ステップS103で補正方法がメッセージ表示である場合(ステップS103のYES)、低速映像生成部85として前記CPUは、映像バッファ57から出力される映像データの一連のフレームをn個(nは2以上の整数)の時系列順のグループに分割する(ステップS121)。そして、各グループの映像再生の間にウェイト処理を挿入し(ステップS123〜S131)、映像をスロー再生する。なお、挿入するウェイト時間は、前記CPUが速度テーブル63の速度データと閾値データ65とに基づいて決定することが好ましい。即ち、スロー再生される映像の視点の移動速度が、閾値データ65の設定を超えない程度に宇税と時間を決定することが好ましい。 On the other hand, when the correction method is message display in step S103 (YES in step S103), the CPU as the low-speed video generation unit 85 generates a series of n frames of video data output from the video buffer 57 ( (n is an integer equal to or greater than 2) is divided into time-series groups (step S121). Then, a wait process is inserted between the video playback of each group (steps S123 to S131), and the video is played back slowly. The wait time to be inserted is preferably determined by the CPU based on the speed data in the speed table 63 and the threshold data 65. That is, it is preferable to determine the tax and time so that the moving speed of the viewpoint of the slow-played video does not exceed the threshold data 65 setting.
前述した実施の形態の他にも、この発明について種々の変形例があり得る。それらの変形例は、この発明の範囲に属さないと解されるべきものではない。この発明には、請求の範囲と均等の意味および前記範囲内でのすべての変形とが含まれるべきである。 In addition to the embodiments described above, there can be various modifications of the present invention. These modifications should not be construed as not belonging to the scope of the present invention. The present invention should include the meaning equivalent to the scope of the claims and all modifications within the scope.
11:撮影装置
13:撮像部
15:映像データ生成部
17:補助記憶部
21:加速度センサ
23:角速度センサ
25:距離検出デバイス
27:角速度→速度変換部
29:速度データ生成部
31:撮影対象
41:映像データ
43:速度テーブル
51:再生装置
53:映像取得部
55:映像分離部
57:映像バッファ
61:記憶部
63:速度テーブル
65:閾値データ
67:解像度データ
69:補正方法指定
71:サンプル映像データ
73:サンプル映像速度テーブル
75:表示制御部
77:表示部
81:2D 化映像生成部
83:メッセージ表示生成部
85:低速映像生成部
87:制御部
89:メニュー制御部
91:リモコン受光部
93:リモコン
95:3D メガネ通信部
97:3D メガネ
11: imaging device 13: imaging unit 15: video data generation unit 17: auxiliary storage unit 21: acceleration sensor 23: angular velocity sensor 25: distance detection device 27: angular velocity → speed conversion unit 29: velocity data generation unit 31: imaging target 41 : Video data 43: Speed table 51: Playback device 53: Video acquisition unit 55: Video separation unit 57: Video buffer 61: Storage unit 63: Speed table 65: Threshold data 67: Resolution data 69: Correction method designation 71: Sample video Data 73: Sample video speed table 75: Display control unit 77: Display unit 81: 2D converted video generation unit 83: Message display generation unit 85: Low speed video generation unit 87: Control unit 89: Menu control unit 91: Remote control light receiving unit 93 : Remote control 95: 3D glasses communication part 97: 3D glasses
Claims (8)
カメラ位置の移動速度に係る閾値を予め格納する記憶部と、
取得された記録映像の再生中に前記カメラ位置の移動速度と前記閾値とを比較し、移動速度が閾値を超える時間帯と閾値以下の時間帯とに前記映像を分離する映像分離部と、
閾値を超える時間帯に再生する映像を補正する映像補正部と、
閾値を超える時間帯は前記映像補正部により補正された映像を表示し閾値以下の時間帯は前記映像補正部による補正がされない映像を表示するように制御する表示制御部とを備えることを特徴とする三次元映像再生装置。 A video acquisition unit that acquires and plays back a recorded video in which the moving speed of the camera position that captured the video is added to the video of the three-dimensional video;
A storage unit that stores in advance a threshold value related to the moving speed of the camera position;
A video separation unit that compares the moving speed of the camera position with the threshold during reproduction of the acquired recorded video, and separates the video into a time zone in which the moving speed exceeds the threshold and a time zone below the threshold;
A video correction unit for correcting a video to be played back in a time zone exceeding the threshold;
A display control unit that controls to display a video that has been corrected by the video correction unit during a time period that exceeds a threshold value, and to display a video that is not corrected by the video correction unit during a time period that is less than or equal to the threshold value. 3D video playback device.
前記映像補正部は、視聴者の両眼に右眼用映像のみを観せるかまたは左眼用映像データのみを観せるように補正する請求項6に記載の再生装置。 The three-dimensional video image includes a right-eye image and a left-eye image that are different from each other by the amount of parallax,
The playback apparatus according to claim 6, wherein the video correction unit performs correction so that only the right-eye video can be viewed by the viewer's eyes or only the left-eye video data can be viewed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010245300A JP2012100015A (en) | 2010-11-01 | 2010-11-01 | Three-dimensional video reproducing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010245300A JP2012100015A (en) | 2010-11-01 | 2010-11-01 | Three-dimensional video reproducing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012100015A true JP2012100015A (en) | 2012-05-24 |
Family
ID=46391451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010245300A Pending JP2012100015A (en) | 2010-11-01 | 2010-11-01 | Three-dimensional video reproducing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012100015A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018109937A (en) * | 2016-12-28 | 2018-07-12 | 株式会社コロプラ | Information processing method, apparatus, information processing system, and program causing computer to execute the information processing method |
CN112867444A (en) * | 2018-10-15 | 2021-05-28 | 皇家飞利浦有限公司 | System and method for guiding acquisition of ultrasound images |
US11366318B2 (en) | 2016-11-16 | 2022-06-21 | Samsung Electronics Co., Ltd. | Electronic device and control method thereof |
-
2010
- 2010-11-01 JP JP2010245300A patent/JP2012100015A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11366318B2 (en) | 2016-11-16 | 2022-06-21 | Samsung Electronics Co., Ltd. | Electronic device and control method thereof |
JP2018109937A (en) * | 2016-12-28 | 2018-07-12 | 株式会社コロプラ | Information processing method, apparatus, information processing system, and program causing computer to execute the information processing method |
CN112867444A (en) * | 2018-10-15 | 2021-05-28 | 皇家飞利浦有限公司 | System and method for guiding acquisition of ultrasound images |
CN112867444B (en) * | 2018-10-15 | 2024-05-07 | 皇家飞利浦有限公司 | System and method for guiding acquisition of ultrasound images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5917017B2 (en) | Image processing apparatus, control method therefor, and program | |
KR101275542B1 (en) | Three-dimensional image display device and three-dimensional image display method | |
JP4903888B2 (en) | Image display device, image display method, and image correction method | |
JP2008103820A (en) | Stereoscopic image processing apparatus | |
JP3749227B2 (en) | Stereoscopic image processing method and apparatus | |
JP5420075B2 (en) | Stereoscopic image reproduction apparatus, parallax adjustment method thereof, parallax adjustment program, and imaging apparatus | |
JP3857988B2 (en) | Stereoscopic image processing method and apparatus | |
TW201234838A (en) | Stereoscopic display device and control method of stereoscopic display device | |
NO340415B1 (en) | Device and program for generating stereographic image display | |
JP2011142632A (en) | Camera arrangement, camera system, and camera configuration method | |
JP2010252046A (en) | Image pickup apparatus | |
JP2011171813A (en) | Imaging apparatus and stereoscopic image display method | |
JP4989788B2 (en) | Stereoscopic image display control apparatus and operation control method thereof | |
JP5374641B2 (en) | 3D video recording apparatus and 3D video signal processing apparatus | |
US9161018B2 (en) | Methods and systems for synthesizing stereoscopic images | |
KR20140109868A (en) | Image processing apparatus, method thereof, and non-transitory computer readable storage medium | |
JP2012090259A (en) | Imaging apparatus | |
JP2012100015A (en) | Three-dimensional video reproducing device | |
JP2004221699A (en) | Stereoscopic image processing method and apparatus | |
JP5563625B2 (en) | Image analysis apparatus, image analysis method, and image analysis system | |
JP4118146B2 (en) | Stereoscopic image processing device | |
JP2006287813A (en) | Three-dimensional image display device | |
JP2011259012A (en) | Three-dimensional image reproduction device and three-dimensional image reproduction method | |
JP5222407B2 (en) | Image display device, image display method, and image correction method | |
JP2011077984A (en) | Video processing apparatus |