WO2014155670A1 - 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム - Google Patents

立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム Download PDF

Info

Publication number
WO2014155670A1
WO2014155670A1 PCT/JP2013/059535 JP2013059535W WO2014155670A1 WO 2014155670 A1 WO2014155670 A1 WO 2014155670A1 JP 2013059535 W JP2013059535 W JP 2013059535W WO 2014155670 A1 WO2014155670 A1 WO 2014155670A1
Authority
WO
WIPO (PCT)
Prior art keywords
maximum
foreground
background
stereoscopic
video
Prior art date
Application number
PCT/JP2013/059535
Other languages
English (en)
French (fr)
Inventor
伊央 中山
Original Assignee
株式会社 東芝
東芝ライフスタイル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝ライフスタイル株式会社 filed Critical 株式会社 東芝
Priority to PCT/JP2013/059535 priority Critical patent/WO2014155670A1/ja
Priority to JP2014541235A priority patent/JP5851625B2/ja
Priority to US14/468,090 priority patent/US20140362198A1/en
Publication of WO2014155670A1 publication Critical patent/WO2014155670A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • Embodiments described herein relate generally to a stereoscopic video processing apparatus, a stereoscopic video processing method, and a stereoscopic video processing program.
  • the right-eye video and the left-eye video are alternately displayed on the same video display screen, and the left-eye shutter is closed when the right-eye video is displayed for the stereoscopic glasses worn by the user.
  • a so-called shutter glasses method that allows a user to recognize a stereoscopic video image by controlling the shutter of the right eye to be closed when displaying the video image has been put into practical use and has spread in the market.
  • a plurality of parallax images with different viewpoints are displayed on the video display screen, and the direction of light emission from the parallax video is controlled by a light beam control element such as a lens or a barrier covering the screen, thereby providing stereoscopic glasses.
  • a light beam control element such as a lens or a barrier covering the screen
  • the user prefers a type that prefers a gentle three-dimensional image that is gentle to the eyes, that is, a video that has a small pop-out / depth amount, or a video that emphasizes a three-dimensional effect, that is, a video that has a large pop-out / depth amount.
  • a landscape image emphasizes the sense of depth of the background
  • a subject image that reflects an object in detail emphasizes a sense of unevenness inside the object.
  • An object of the present invention is to provide a stereoscopic video processing apparatus, a stereoscopic video processing method, and a stereoscopic video processing program.
  • the stereoscopic video processing apparatus includes a separating unit and an adjusting unit.
  • the separating unit separates the background and the foreground from the video signal for stereoscopic video display.
  • the adjusting unit adjusts the maximum depth position and the maximum projecting position independently for the background and foreground video signals separated by the separating unit.
  • the stereoscopic video processing apparatus By making it possible to independently adjust the maximum projection position and the maximum depth position for the background and foreground of the stereoscopic display video, it is possible to display a video with a stereoscopic effect suitable for the user's preference, subject, etc.
  • the stereoscopic video processing apparatus, the stereoscopic video processing method, and the stereoscopic video processing program can be provided.
  • the stereoscopic video processing apparatus includes a separating unit and an adjusting unit.
  • the separating unit separates the background and the foreground from the video signal for stereoscopic video display.
  • the adjusting unit adjusts the maximum depth position and the maximum projecting position independently for the background and foreground video signals separated by the separating unit.
  • FIG. 1 schematically shows a signal processing system of a digital television broadcast receiving apparatus 11 described in this embodiment.
  • the digital television broadcast receiver 11 not only performs video display based on a normal planar (two-dimensional) display video signal, but also displays video based on a stereoscopic (three-dimensional) display video signal. Can also be done.
  • the digital television broadcast signal received by the antenna 12 is supplied to the tuner unit 14 via the input terminal 13 so that a broadcast signal of a desired channel is selected.
  • the broadcast signal selected by the tuner unit 14 is supplied to the demodulation / decoding unit 15, restored to a digital video signal, audio signal, and the like, and then output to the signal processing unit 16.
  • the signal processing unit 16 applies predetermined digital signal processing to the digital video signal and audio signal supplied from the demodulation / decoding unit 15. Although the details of the predetermined digital signal processing performed by the signal processing unit 16 will be described later, processing for converting a normal video signal for planar display into a video signal for stereoscopic display, Processing for adjusting the depth amount of the video signal for display is also included.
  • the signal processing unit 16 outputs a digital video signal to the synthesis processing unit 17 and outputs a digital audio signal to the audio processing unit 18.
  • the composition processing unit 17 superimposes and outputs an OSD (on-screen display) signal on the digital video signal supplied from the signal processing unit 16.
  • the digital video signal output from the synthesis processing unit 17 is supplied to the video processing unit 19.
  • the video processing unit 19 converts the input digital video signal into a format that can be displayed on a flat-type video display unit 20 having, for example, a liquid crystal display panel.
  • the video signal output from the video processing unit 19 is supplied to the video display unit 20 and used for video display.
  • the video processing unit 19 alternates the right-eye video signal and the left-eye video signal in units of frames.
  • a process of outputting at double speed, a process of reducing three-dimensional crosstalk using overdrive technology, and the like are performed.
  • the video processing unit 19 displays the right eye video during the video display period and the left eye video.
  • a shutter control signal indicating each period of time is generated and output to stereoscopic glasses (not shown).
  • the stereoscopic glasses close the left-eye shutter when the right-eye video is displayed and the right-eye when the left-eye video is displayed based on the shutter control signal supplied from the video processing unit 19. Is controlled so that the user can recognize a stereoscopic video.
  • the audio processing unit 18 converts the input digital audio signal into an analog audio signal in a format that can be reproduced by the speaker 21 at the subsequent stage.
  • the analog audio signal output from the audio processing unit 18 is supplied to the speaker 21 for audio reproduction.
  • the control unit 22 includes a CPU (central processing unit) 22 a and receives operation information from the operation unit 23 installed in the main body of the digital television broadcast receiver 11 or sends it from the remote controller 24. In response to the operation information received by the receiving unit 25, each unit is controlled so that the operation content is reflected.
  • CPU central processing unit
  • the control unit 22 uses the memory unit 22b.
  • the memory unit 22b mainly includes a ROM (read memory) storing a control program executed by the CPU 22a, a RAM (random memory) for providing a work area to the CPU 22a, and various setting information and control information. And so on.
  • an HDD (hard disk drive) 26 is connected to the control unit 22.
  • the control unit 22 supplies the digital video signal, audio signal, and the like restored by the signal processing unit 16 to the HDD 26 based on the operation of the operation unit 23, the remote controller 24, and the like by the user, and records them on the hard disk 26a. Can be controlled.
  • control unit 22 causes the HDD 26 to read out digital video signals, audio signals, and the like from the hard disk 26 a based on the operation of the operation unit 23, the remote controller 24, and the like by the user, and supplies them to the signal processing unit 16.
  • the control unit 22 can be controlled to be used for the video display and the audio reproduction described above.
  • a network interface 27 is connected to the control unit 22.
  • the network interface 27 is connected to a network line network (not shown) such as the Internet.
  • the network line is connected to a network server for providing various services using a communication function via the network line.
  • control unit 22 provides information by accessing the network server and performing information communication via the network interface 27 and the network line network based on the operation of the operation unit 23 and the remote controller 24 by the user. You can use the service you have.
  • FIG. 2 shows the external appearance of the remote controller 24.
  • the remote controller 24 mainly includes a power key 24a, a number key 24b, a channel up / down key 24c, a volume adjustment key 24d, a cursor up key 24e, a cursor down key 24f, a cursor left key 24g, and a cursor right key.
  • 24h an enter key 24i, a menu key 24j, a return key 24k, an end key 24l, four color (blue, red, green, yellow) color keys 24m, and the like are provided.
  • the remote controller 24 is provided with a playback stop key 24n, a playback / pause key 24o, a reverse skip key 24p, a forward skip key 24q, a fast reverse key 24r, a fast forward key 24s, and the like. That is, the HDD 26 can be played, stopped, or paused by operating the playback stop key 24n or the playback / pause key 24o of the remote controller 24.
  • reverse skip key 24p or the forward skip key 24q of the remote controller 24 by operating the reverse skip key 24p or the forward skip key 24q of the remote controller 24, data such as video and audio read from the hard disk 26a by the HDD 26 can be reversed or forward with respect to the reproduction direction.
  • reverse skip or forward skip which causes a predetermined amount to be skipped.
  • fast reverse key 24r By operating the fast reverse key 24r, the fast forward key 24s, etc. of the remote controller 24, data such as video and audio read from the hard disk 26a by the HDD 26 is continuously reversed or forward with respect to the reproduction direction. Thus, so-called fast reverse playback and fast forward playback can be performed.
  • FIG. 3 shows an example of the depth amount adjusting unit 28 provided in the signal processing unit 16.
  • the depth amount adjustment unit 28 converts a normal planar display video signal into a stereoscopic display video signal, and adjusts the jump / depth amount of the converted stereoscopic display video signal.
  • the depth amount adjustment unit 28 includes an input terminal 29 to which the video signal for planar display restored by the demodulation / decoding unit 15 is supplied.
  • the video signal for planar display supplied to the input terminal 29 is supplied to the video storage unit 30 and stores, for example, a video signal for one frame.
  • the video signal stored in the video storage unit 30 is supplied to the foreground / background separation unit 31 and separated into the foreground and the background.
  • the video signal for planar view read out from the video storage unit 30 is supplied to the contour detection unit 31a.
  • the contour detection unit 31a separates an input video into a foreground and a background by detecting a contour component from the input video signal.
  • FIG. 4A shows an example of the video corresponding to the video signal read from the video storage unit 30, that is, the video input to the foreground / background separation unit 31, and
  • FIG. 4B shows the contour detection.
  • An example of a video corresponding to a foreground video signal output from the unit 31a, that is, a foreground video separated by the foreground / background separation unit 31 is shown.
  • the foreground and background of the video signal separated by the foreground / background separation unit 31 are supplied to the depth adjustment unit 32 in units of several pixels.
  • the depth adjustment unit 32 sets the pop-out / depth amount for generating a stereoscopic video for the video signal input in units of blocks.
  • the depth adjustment unit 32 independently sets the maximum projection position and the maximum depth position for the foreground of the input video signal based on the foreground depth adjustment information output from the depth adjustment UI (user interface) 33. adjust.
  • the depth adjustment unit 32 independently adjusts the maximum projection position and the maximum depth position with respect to the background of the input video signal based on the background depth adjustment information output from the depth adjustment UI 33.
  • the video signal in which the maximum projection position and the maximum depth position are independently adjusted for the foreground and the background by the depth adjustment unit 32 is supplied to the parallax video generation unit 34, for example, the right eye video signal and the left eye After being generated, the video signal is supplied to the synthesis processing unit 17 via the output terminal 35.
  • the depth adjustment UI 33 displays a depth adjustment operation screen 36 in the lower right corner of the display screen 20 a of the video display unit 20 so as to overlap the display video based on the stereoscopic video signal.
  • the depth adjustment operation screen 36 can be displayed by the user operating the menu key 24j of the remote controller 24 and dividing it into a plurality of menu screens having a hierarchical structure.
  • the depth adjustment UI 33 is supplied with operation information about the operation of the remote controller 24 by the user on the depth adjustment operation screen 36 via the input terminal 37, so that the maximum projection position and the maximum depth position for the foreground are provided. And foreground depth adjustment information for designating the background, and background depth adjustment information for designating the maximum projection position and the maximum depth position for the background.
  • FIG. 6 shows an example of the depth adjustment operation screen 36.
  • the depth adjustment operation screen 36 represents the amount of projection / depth that can be expressed by the digital television broadcast receiver 11 by the length of the vertical line segment L.
  • the central portion of the line segment L is set to a screen position A1 corresponding to the display screen 20a of the video display unit 20, the upper end portion of the line segment L is set to the maximum depth position A2, and the lower end portion of the line segment L is set to the maximum jump position A3. It is said.
  • the depth adjustment operation screen 36 includes a background adjustment icon B for adjusting the jump / depth amount for the background image along the line segment L corresponding to the jump / depth amount, and a foreground image.
  • a foreground adjustment icon C for adjusting the amount of projection / depth of the image is displayed.
  • the background adjustment icon B has a vertical length representing the jump / depth adjustment range with respect to the background, and the upper end of the background adjustment icon B is the maximum depth position for designating the maximum depth position with respect to the background.
  • a designated end B1 is provided, and a lower end of the designated end B1 is a maximum projected position designated end B2 for designating a maximum projected position for the background.
  • the user selectively operates the up, down, left, and right movement keys 24e to 24h on the cursor of the remote controller 24 to move the cursor (not shown) to the maximum depth position designation end B1 of the background adjustment icon B.
  • the enter key 24i When the enter key 24i is operated, the maximum depth position designation end B1 is linked with the cursor. Therefore, when the user selectively operates the cursor up or down movement keys 24e and 24f, the maximum depth position designation end B1 is moved in the vertical direction along the line segment L.
  • the linkage with the cursor of the maximum depth position designation end B1 is released, and the maximum depth position for the background is determined here. It will be.
  • the user selectively operates the cursor up, down, left, and right movement keys 24e to 24h of the remote controller 24 to move the cursor to the maximum pop-out position designation end B2 of the background adjustment icon B, and press the enter key 24i.
  • the maximum pop-out position designation end B2 is linked with the cursor. Therefore, when the user selectively operates the cursor up or down movement keys 24e and 24f, the maximum pop-out position designation end B2 is moved in the vertical direction along the line segment L.
  • the linkage with the cursor of the maximum pop-up position designation end B2 is released.
  • the maximum pop-out position for the background is Will be decided.
  • the depth adjustment UI 33 when the maximum depth position and the maximum jump position with respect to the background are determined, the depth adjustment UI 33 generates background depth adjustment information that specifies the maximum jump position and the maximum depth position for the background, Output to the depth adjustment unit 32. Accordingly, the depth adjustment unit 32 can independently adjust the maximum projecting position and the maximum depth position with respect to the background with respect to the input stereoscopic video signal.
  • the foreground adjustment icon C has a vertical length that represents a jump / depth adjustment range with respect to the foreground, and an upper end portion of the foreground adjustment icon C specifies the maximum depth position for the foreground.
  • a designated end C1 is provided, and a lower end of the designated end C1 is a maximum projected position designated end C2 for designating a maximum projected position for the foreground.
  • the user selectively operates the cursor up, down, left, and right movement keys 24e to 24h of the remote controller 24 to move the cursor to the maximum depth position designation end C1 of the foreground adjustment icon C, and press the enter key 24i.
  • the maximum depth position designation end C1 is linked with the cursor. Therefore, when the user selectively operates the cursor up or down movement keys 24e and 24f, the maximum depth position designation end C1 is moved in the vertical direction along the line segment L.
  • the linkage with the cursor of the maximum depth position designation end C1 is released, and here the maximum depth position for the foreground is determined. It will be.
  • the user selectively operates the up, down, left and right movement keys 24e to 24h on the cursor of the remote controller 24 to move the cursor to the maximum pop-out position designation end C2 of the foreground adjustment icon C, and press the enter key 24i.
  • the maximum pop-out position designation end C2 is interlocked with the cursor. Therefore, when the user selectively operates the cursor up or down movement keys 24e and 24f, the maximum pop-out position designation end C2 is moved in the vertical direction along the line segment L.
  • the depth adjustment UI 33 when the maximum depth position and the maximum jump position for the foreground are determined, the depth adjustment UI 33 generates foreground depth adjustment information that specifies the maximum jump position and the maximum depth position for the foreground, Output to the depth adjustment unit 32.
  • the depth adjustment unit 32 can independently adjust the maximum projection position and the maximum depth position with respect to the foreground with respect to the input stereoscopic video signal.
  • the video signal for stereoscopic display is separated into the foreground and the background, and the maximum projection position and the maximum depth position of the foreground and background can be adjusted independently.
  • the stereoscopic effect can be finely adjusted according to the user's preference and the type of subject.
  • the operation of independently adjusting the maximum projection position and the maximum depth position for the foreground and the background is easy with a simple operation in which the user operates the remote controller 24 on the depth adjustment operation screen 36 to move the cursor. Therefore, handling for the user can be made convenient.
  • the depth adjustment operation screen 36 is displayed in the corner of the display screen 20a of the video display unit 20 so as to overlap the display video based on the stereoscopic video signal, the user can view the stereoscopic display while viewing the actual stereoscopic display video.
  • the feeling can be adjusted, and the handling for the user can be made convenient also in this respect.
  • FIGS. 7 (a) to 7 (e) show typical examples when the maximum projection position and the maximum depth position are independently adjusted for the foreground and the background, respectively.
  • 7A to 7E the stereoscopic display video is displayed in the foreground as the luminance is lower.
  • black indicates what is present at the maximum protrusion position A3 of the total depth
  • white indicates what is present at the maximum depth position A2 of the total depth.
  • the maximum depth position designation end B1 and the maximum pop-out position designation end B2 of the background adjustment icon B are respectively aligned with the maximum depth position A2 and the screen position A1 of the total depth amount, and the foreground adjustment icon C
  • the maximum depth position designation end C1 and the maximum jump position designation end C2 are respectively placed between the screen position A1 of the total depth amount and the maximum jump position A3.
  • the background appears behind the screen position A1, and only the foreground appears to jump out from the screen position A1, so that the most standard stereoscopic effect can be obtained.
  • FIG. 7B shows the maximum depth of the background adjustment icon B by aligning the center of the maximum depth position designation end C1 and the maximum projection position designation end C2 of the foreground adjustment icon C with the screen position A1 of the total depth amount.
  • the position designation end B1 and the maximum projecting position designation end B2 are respectively matched with the maximum depth position A2 of the total depth amount and the maximum depth position designation end C1 of the foreground adjustment icon C. In this way, the foreground can be seen at the position of the display screen 20a, and the depth of the foreground and the background are continuous.
  • the background adjustment icon B is arranged in the vicinity of the maximum depth position A2 of the total depth amount
  • the foreground adjustment icon C is arranged in the vicinity of the maximum protrusion position A3 of the total depth amount to adjust the background.
  • the icon B and the foreground adjustment icon C are discontinuous. In this way, the background looks deep and the foreground appears to pop out as far as possible, so that a powerful stereoscopic effect can be obtained.
  • the foreground adjustment icon C is arranged in the vicinity of the maximum jump position A3 of the total depth amount, and the background adjustment icon B is arranged so as to occupy most of the total depth amount. In this way, the spread is emphasized and the magnificence is increased with respect to the scenery such as the meadow or the sea.
  • the background adjustment icon B is arranged in the vicinity of the maximum depth position A2 of the total depth amount, and the foreground adjustment icon C occupies most of it across the screen position A1 of the total depth amount. It is arranged. In this way, the adjustment of the shape of the article and the sense of unevenness in the article taken in the case of an image taken close to the article is adjusted.
  • the adjustment positions of the background adjustment icon B and the foreground adjustment icon C shown in FIGS. 7A to 7E are stored in, for example, the memory unit 22b or the like corresponding to the stereoscopic video display mode.
  • a plurality of (in the illustrated example, five) mode keys 38a to 38e can be created in the screen, and the user can give a name to each of the created mode keys 38a to 38e.
  • five mode keys 38a to 38e are created, and the names "standard mode”, “natural mode”, “power mode”, “scenery mode”, and “things taking mode” are assigned to the mode keys 38a to 38e, respectively. Indicates a state in which is added.
  • the adjustment position shown in FIG. 7A is stored in correspondence with the standard mode key 38a, and the adjustment position shown in FIG. 7B is stored in correspondence with the natural mode key 38b.
  • the adjustment position shown in FIG. 7D is stored in correspondence with the landscape mode key 38d, and the adjustment position shown in FIG. Can be stored in correspondence with the shooting mode key 38e.
  • the user displays the mode setting screen 38 and operates the desired mode keys 38a to 38e, whereby the background adjustment stored in correspondence with the operated mode keys 38a to 38e.
  • the stereoscopic image can be displayed at each adjustment position of the icon B for foreground and the icon C for foreground adjustment.
  • FIG. 1 It is also possible to prepare in advance a mode setting screen 38 including mode keys 38a to 38e corresponding to the adjustment positions of the background adjustment icon B and the foreground adjustment icon C shown in (a) to (e). .
  • the digital television broadcast receiving apparatus 11 that performs stereoscopic video display using the shutter glasses method has been described, but the background and the apparatus that performs autostereoscopic video display using the multi-parallax method are also described. It is possible to independently adjust the maximum projecting position and the maximum depth position for the foreground.
  • the digital television broadcast receiver 11 that converts a video signal for planar display into a video signal for stereoscopic display has been described.
  • the video signal for stereoscopic display is broadcast or networked.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by variously modifying the constituent elements without departing from the scope of the invention in the implementation stage.
  • Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements according to different embodiments may be appropriately combined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 実施の形態によれば、立体視映像処理装置は、分離手段と調整手段とを備える。分離手段は、立体視映像表示用の映像信号から背景と前景とを分離する。調整手段は、分離手段で分離された背景及び前景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に調整する。

Description

立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
 この発明の実施の形態は、立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラムに関する。
 周知のように、従来より、平面的な映像表示画面を用いてユーザに立体感のある映像を認識させる技術の開発が進められている。この技術は、相互に人間の両目の間隔に対応した視差を有する2種類の映像を用意し、右目用映像をユーザの右目に視認させ、左目用映像をユーザの左目に視認させることにより立体視を行なうものである。
 一例としては、右目用映像と左目用映像とを同一の映像表示画面に交互に表示させ、ユーザの装着した立体視用眼鏡に対して、右目用映像の表示時に左目のシャッタを閉じ、左目用映像の表示時に右目のシャッタを閉じるように制御することで、ユーザに立体視映像を認識させる、いわゆる、シャッタ眼鏡方式が実用化され市場に普及している。
 また、映像表示画面上に視点の異なる多数の視差映像を表示させ、該画面を覆うレンズやバリア等の光線制御素子により当該視差映像からの光線の出射方向を制御することにより、立体視用眼鏡を使用することなくユーザが立体視映像を認識することができるようにした、いわゆる、多視差方式による裸眼型の立体視映像表示技術も実用化されている。
 ところで、ユーザには、目に優しく緩やかな立体感の映像、つまり、飛出し/奥行き量が小さい映像を好むタイプや、立体感の強調された映像、つまり、飛出し/奥行き量が大きい映像を好むタイプ等が存在する。また、被写体としても、風景映像は背景の奥行きの広がり感が重視されるのに対し、品物を詳細に映す物撮り映像では物体内部の凹凸感が重視される。
 しかしながら、現在の立体視映像表示技術においては、飛出し/奥行き量として、最大飛出し位置と最大奥行き位置との2点が調整可能となっているだけである。このため、ユーザの好みや表示する被写体等に応じて細かく飛出し/奥行き量を調整することができず、最適な立体感での映像表示が行なえていないものである。
特開2011-176823号公報 特開2003-209858号公報
 立体視表示映像の背景と前景とについて最大飛出し位置と最大奥行き位置とをそれぞれ独立に調整可能とすることにより、ユーザの好みや被写体等に適した立体感での映像表示を行なうことができるようにした立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラムを提供することを目的とする。
 実施の形態によれば、立体視映像処理装置は、分離手段と調整手段とを備える。分離手段は、立体視映像表示用の映像信号から背景と前景とを分離する。調整手段は、分離手段で分離された背景及び前景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に調整する。
 立体視表示映像の背景と前景とについて最大飛出し位置と最大奥行き位置とをそれぞれ独立に調整可能とすることにより、ユーザの好みや被写体等に適した立体感での映像表示を行なうことができるようにした立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラムを提供することができる。
実施の形態としてのデジタルテレビジョン放送受信装置の信号処理系の一例を概略的に説明するために示すブロック構成図である。 同実施の形態におけるデジタルテレビジョン放送受信装置で使用されるリモートコントローラの一例を説明するために示す外観図である。 同実施の形態におけるデジタルテレビジョン放送受信装置に設けられた奥行き量調整部の一例を説明するために示すブロック構成図である。 同実施の形態における奥行き量調整部の動作の一例を説明するために示す図である。 同実施の形態における奥行き量調整部によって表示される奥行き調整操作画面の表示位置の一例を説明するために示す図である。 同実施の形態における奥行き調整操作画面の一例を説明するために示す図である。 同実施の形態における奥行き調整操作画面を用いて奥行き調整を行なった場合の一例を説明するために示す図である。 同実施の形態におけるデジタルテレビジョン放送受信装置が表示するモード設定画面の一例を説明するために示す図である。
 以下、実施の形態について図面を参照して詳細に説明する。実施の形態によれば、立体視映像処理装置は、分離手段と調整手段とを備える。分離手段は、立体視映像表示用の映像信号から背景と前景とを分離する。調整手段は、分離手段で分離された背景及び前景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に調整する。
 図1は、この実施の形態で説明するデジタルテレビジョン放送受信装置11の信号処理系を概略的に示している。なお、このデジタルテレビジョン放送受信装置11は、通常の平面視(2次元)表示用の映像信号に基づく映像表示を行なうだけでなく、立体視(3次元)表示用の映像信号に基づく映像表示も行なうことができる。
 すなわち、アンテナ12で受信したデジタルテレビジョン放送信号は、入力端子13を介してチューナ部14に供給されることにより、所望のチャンネルの放送信号が選局される。そして、このチューナ部14で選局された放送信号は、復調復号部15に供給されてデジタルの映像信号及び音声信号等に復元された後、信号処理部16に出力される。
 この信号処理部16は、復調復号部15から供給されたデジタルの映像信号及び音声信号に対してそれぞれ所定のデジタル信号処理を施している。この信号処理部16が行なう所定のデジタル信号処理には、詳細は後述するが、通常の平面視表示用の映像信号を立体視表示用の映像信号に変換する処理や、この変換された立体視表示用の映像信号の奥行き量を調整する処理等も含まれている。
 そして、この信号処理部16は、デジタルの映像信号を合成処理部17に出力し、デジタルの音声信号を音声処理部18に出力している。このうち、合成処理部17は、信号処理部16から供給されるデジタルの映像信号に、OSD(on screen display)信号を重畳して出力している。そして、合成処理部17から出力されたデジタルの映像信号は、映像処理部19に供給される。
 この映像処理部19は、入力されたデジタルの映像信号を、後段の、例えば液晶表示パネル等を有する平面型の映像表示部20で表示可能なフォーマットに変換している。そして、この映像処理部19から出力された映像信号が、映像表示部20に供給されて映像表示に供される。
 また、この映像処理部19は、合成処理部17から供給される映像信号が立体視表示用の映像信号である場合、その右目用映像信号と左目用映像信号とに対して、フレーム単位で交互に倍速で出力する処理や、オーバードライブ技術を用いた3次元クロストークの低減処理等を施している。
 さらに、この映像処理部19は、合成処理部17から供給される映像信号が立体視表示用の映像信号である場合、右目用映像を映像表示している期間と、左目用映像を映像表示している期間とをそれぞれ示すシャッタ制御信号を生成し、図示しない立体視用眼鏡に出力している。
 このため、上記立体視用眼鏡は、映像処理部19から供給されるシャッタ制御信号に基づいて、右目用映像が表示されるときに左目のシャッタを閉じ、左目用映像が表示されるときに右目のシャッタを閉じるように制御され、これにより、ユーザに立体視映像が認識されることになる。
 また、上記音声処理部18は、入力されたデジタルの音声信号を、後段のスピーカ21で再生可能なフォーマットのアナログ音声信号に変換している。そして、この音声処理部18から出力されたアナログ音声信号が、スピーカ21に供給されることにより音声再生に供される。
 ここで、このデジタルテレビジョン放送受信装置11は、上記した各種の受信動作を含むその全ての動作を制御部22によって統括的に制御されている。この制御部22は、CPU(central processing unit)22aを内蔵しており、デジタルテレビジョン放送受信装置11の本体に設置された操作部23からの操作情報を受けて、または、リモートコントローラ24から送出され受信部25で受信した操作情報を受けて、その操作内容が反映されるように各部をそれぞれ制御している。
 この場合、制御部22は、メモリ部22bを利用している。このメモリ部22bは、主として、CPU22aが実行する制御プログラムを格納したROM(read only memory)と、該CPU22aに作業エリアを提供するためのRAM(random access memory)と、各種の設定情報及び制御情報等が格納される不揮発性メモリとを有している。
 また、この制御部22には、HDD(hard disk drive)26が接続されている。この制御部22は、ユーザによる操作部23やリモートコントローラ24等の操作に基づいて、上記信号処理部16で復元したデジタルの映像信号や音声信号等を、HDD26に供給してハードディスク26aに記録させるように制御することができる。
 さらに、この制御部22は、ユーザによる操作部23やリモートコントローラ24等の操作に基づいて、HDD26によりハードディスク26aからデジタルの映像信号や音声信号等を読み出させ、信号処理部16に供給することにより、以後、上記した映像表示及び音声再生に供させるように制御することができる。
 また、上記制御部22には、ネットワークインターフェース27が接続されている。このネットワークインターフェース27は、例えばインターネット等のネットワーク回線網(図示せず)に接続されている。そして、このネットワーク回線網には、当該ネットワーク回線網を介した通信機能を利用して各種のサービスを提供するためのネットワークサーバが接続されている。
 このため、制御部22は、ユーザによる操作部23やリモートコントローラ24の操作に基づき、ネットワークインターフェース27及びネットワーク回線網を介して、ネットワークサーバにアクセスして情報通信を行なうことにより、そこで提供しているサービスを利用することができるようになっている。
 図2は、上記リモートコントローラ24の外観を示している。このリモートコントローラ24には、主として、電源キー24a、数字キー24b、チャンネルアップダウンキー24c、音量調整キー24d、カーソル上移動キー24e、カーソル下移動キー24f、カーソル左移動キー24g、カーソル右移動キー24h、決定キー24i、メニューキー24j、戻るキー24k、終了キー24l、4色(青,赤,緑,黄)のカラーキー24m等が設けられている。
 また、このリモートコントローラ24には、再生停止キー24n、再生/一時停止キー24o、逆方向スキップキー24p、順方向スキップキー24q、早戻しキー24r、早送りキー24s等が設けられている。すなわち、上記HDD26に対しては、リモートコントローラ24の再生停止キー24nや再生/一時停止キー24oを操作することによって、再生、停止、一時停止を行なうことが可能となる。
 また、リモートコントローラ24の逆方向スキップキー24pや順方向スキップキー24qを操作することによって、HDD26でハードディスク26aから読み取っている映像や音声等のデータを、その再生方向に対して逆方向や順方向に一定量ずつスキップさせる、いわゆる、逆方向スキップや順方向スキップを行なうことができる。
 さらに、リモートコントローラ24の早戻しキー24rや早送りキー24s等を操作することにより、HDD26でハードディスク26aから読み取っている映像や音声等のデータを、その再生方向に対して逆方向や順方向に連続的に高速で再生させる、いわゆる、早戻し再生や早送り再生を行なうことができる。
 図3は、上記信号処理部16に設けられる奥行き量調整部28の一例を示している。この奥行き量調整部28は、通常の平面視表示用の映像信号を立体視表示用の映像信号に変換し、この変換された立体視表示用の映像信号の飛出し/奥行き量を調整する機能を有する。すなわち、この奥行き量調整部28は、上記復調復号部15で復元された平面視表示用の映像信号が供給される入力端子29を備えている。
 この入力端子29に供給された平面視表示用の映像信号は、映像格納部30に供給されて、例えば1フレーム分の映像信号が格納される。そして、この映像格納部30に格納された映像信号は、前景背景分離部31に供給されて前景と背景とに分離される。
 すなわち、映像格納部30から読み出された平面視表示用の映像信号は、輪郭検出部31aに供給される。この輪郭検出部31aは、入力された映像信号から輪郭成分を検出することにより、入力映像を前景と背景とに分離している。
 図4(a)は、上記映像格納部30から読み出された映像信号に対応する映像、つまり、前景背景分離部31に入力される映像の一例を示し、図4(b)は、輪郭検出部31aから出力される前景の映像信号に対応する映像、つまり、前景背景分離部31で分離された前景映像の一例を示している。
 この前景背景分離部31で分離された映像信号の前景と背景とは、数画素でなるブロック単位で奥行き調整部32に供給される。この奥行き調整部32は、ブロック単位で入力された映像信号に対して立体視映像を生成するための飛出し/奥行き量を設定している。また、この奥行き調整部32は、奥行き調整UI(user interface)33から出力される前景奥行き調整情報に基づいて、入力された映像信号の前景に対する最大飛出し位置と最大奥行き位置とをそれぞれ独立に調整する。さらに、この奥行き調整部32は、奥行き調整UI33から出力される背景奥行き調整情報に基づいて、入力された映像信号の背景に対する最大飛出し位置と最大奥行き位置とをそれぞれ独立に調整する。
 そして、上記奥行き調整部32により、前景及び背景について最大飛出し位置と最大奥行き位置とがそれぞれ独立に調整された映像信号は、視差映像生成部34に供給されて、例えば右目用映像信号と左目用映像信号とが生成された後、出力端子35を介して上記合成処理部17に供給される。
 ここで、上記奥行き調整UI33は、図5に示すように、映像表示部20の表示画面20aの右下隅に、立体視映像信号による表示映像に重ねて奥行き調整操作画面36を表示させている。この奥行き調整操作画面36は、ユーザがリモートコントローラ24のメニューキー24jを操作して、階層構造となされた複数のメニュー画面に分け入ることにより表示させることができる。
 そして、この奥行き調整UI33は、奥行き調整操作画面36上でユーザがリモートコントローラ24を操作した操作情報が、入力端子37を介して供給されることにより、前景についての最大飛出し位置と最大奥行き位置とを指定する前景奥行き調整情報と、背景についての最大飛出し位置と最大奥行き位置とを指定する背景奥行き調整情報とを生成している。
 図6は、上記奥行き調整操作画面36の一例を示している。この奥行き調整操作画面36は、このデジタルテレビジョン放送受信装置11で表現可能な飛出し/奥行き量を、垂直方向の線分Lの長さで表わしている。そして、線分Lの中央部を映像表示部20の表示画面20aに対応する画面位置A1とし、線分Lの上端部を最大奥行き位置A2とし、線分Lの下端部を最大飛出し位置A3としている。
 ここで、この奥行き調整操作画面36には、飛出し/奥行き量に対応する線分Lに沿って、背景の映像に対する飛出し/奥行き量を調整するための背景調整用アイコンBと、前景の映像に対する飛出し/奥行き量を調整するための前景調整用アイコンCとが表示されている。このうち、背景調整用アイコンBは、その垂直方向の長さが背景に対する飛出し/奥行き量の調整範囲を表わしており、その上端部が背景についての最大奥行き位置を指定するための最大奥行き位置指定端B1となり、その下端部が背景についての最大飛出し位置を指定するための最大飛出し位置指定端B2となっている。
 そして、ユーザは、リモートコントローラ24のカーソル上、下、左、右移動キー24e~24hを選択的に操作して背景調整用アイコンBの最大奥行き位置指定端B1にカーソル(図示せず)を合わせ、決定キー24iを操作すると、最大奥行き位置指定端B1がカーソルと連動されるようになる。このため、ユーザがカーソル上または下移動キー24e,24fを選択的に操作すると、最大奥行き位置指定端B1が線分Lに沿って垂直方向に移動されることになる。そして、ユーザが最大奥行き位置指定端B1の位置を決め、決定キー24iを操作すると、最大奥行き位置指定端B1のカーソルとの連動が解除され、ここに、背景についての最大奥行き位置が決定されることになる。
 また、ユーザは、リモートコントローラ24のカーソル上、下、左、右移動キー24e~24hを選択的に操作して背景調整用アイコンBの最大飛出し位置指定端B2にカーソルを合わせ、決定キー24iを操作すると、最大飛出し位置指定端B2がカーソルと連動されるようになる。このため、ユーザがカーソル上または下移動キー24e,24fを選択的に操作すると、最大飛出し位置指定端B2が線分Lに沿って垂直方向に移動されることになる。そして、ユーザが最大飛出し位置指定端B2の位置を決め、決定キー24iを操作すると、最大飛出し位置指定端B2のカーソルとの連動が解除され、ここに、背景についての最大飛出し位置が決定されることになる。
 このようにして、背景に対する最大奥行き位置と最大飛出し位置とが決定されると、奥行き調整UI33は、背景についての最大飛出し位置と最大奥行き位置とを指定する背景奥行き調整情報を生成し、上記奥行き調整部32に出力する。これにより、奥行き調整部32では、入力された立体視用の映像信号に対して、背景に対する最大飛出し位置と最大奥行き位置とを独立に調整することができる。
 また、上記前景調整用アイコンCは、その垂直方向の長さが前景に対する飛出し/奥行き量の調整範囲を表わしており、その上端部が前景についての最大奥行き位置を指定するための最大奥行き位置指定端C1となり、その下端部が前景についての最大飛出し位置を指定するための最大飛出し位置指定端C2となっている。
 そして、ユーザは、リモートコントローラ24のカーソル上、下、左、右移動キー24e~24hを選択的に操作して前景調整用アイコンCの最大奥行き位置指定端C1にカーソルを合わせ、決定キー24iを操作すると、最大奥行き位置指定端C1がカーソルと連動されるようになる。このため、ユーザがカーソル上または下移動キー24e,24fを選択的に操作すると、最大奥行き位置指定端C1が線分Lに沿って垂直方向に移動されることになる。そして、ユーザが最大奥行き位置指定端C1の位置を決め、決定キー24iを操作すると、最大奥行き位置指定端C1のカーソルとの連動が解除され、ここに、前景についての最大奥行き位置が決定されることになる。
 また、ユーザは、リモートコントローラ24のカーソル上、下、左、右移動キー24e~24hを選択的に操作して前景調整用アイコンCの最大飛出し位置指定端C2にカーソルを合わせ、決定キー24iを操作すると、最大飛出し位置指定端C2がカーソルと連動されるようになる。このため、ユーザがカーソル上または下移動キー24e,24fを選択的に操作すると、最大飛出し位置指定端C2が線分Lに沿って垂直方向に移動されることになる。そして、ユーザが最大飛出し位置指定端C2の位置を決め、決定キー24iを操作すると、最大飛出し位置指定端C2のカーソルとの連動が解除され、ここに、前景についての最大飛出し位置が決定されることになる。
 このようにして、前景に対する最大奥行き位置と最大飛出し位置とが決定されると、奥行き調整UI33は、前景についての最大飛出し位置と最大奥行き位置とを指定する前景奥行き調整情報を生成し、上記奥行き調整部32に出力する。これにより、奥行き調整部32では、入力された立体視用の映像信号に対して、前景に対する最大飛出し位置と最大奥行き位置とを独立に調整することができる。
 上記した実施の形態によれば、立体視表示用の映像信号を前景と背景とに分離し、その前景及び背景について最大飛出し位置と最大奥行き位置とをそれぞれ独立に調整可能としたので、ユーザの好みや被写体の種類等に応じて細かく立体感の調整を行なうことができるようになる。
 また、前景及び背景について最大飛出し位置と最大奥行き位置とをそれぞれ独立に調整する操作は、奥行き調整操作画面36上でユーザがリモートコントローラ24を操作してカーソルを移動させるという単純な作業で容易に行なうことができるため、ユーザにとっての取り扱いを便利にすることができる。
 さらに、奥行き調整操作画面36は、映像表示部20の表示画面20aの隅に立体視映像信号による表示映像に重ねて表示させるようにしたので、ユーザは、実際の立体視表示映像を見ながら立体感の調整を行なうことができ、このような点でも、ユーザにとっての取り扱いを便利にすることができる。
 図7(a)~(e)は、それぞれ、前景及び背景について最大飛出し位置と最大奥行き位置とをそれぞれ独立に調整した場合の代表的な例を示している。図7(a)~(e)において、立体視表示映像は、輝度が低いものほど手前に表示されている。すなわち、黒は総奥行き量の最大飛出し位置A3に存在するものを示し、白は総奥行き量の最大奥行き位置A2に存在するものを示している。
 図7(a)は、背景調整用アイコンBの最大奥行き位置指定端B1及び最大飛出し位置指定端B2をそれぞれ総奥行き量の最大奥行き位置A2及び画面位置A1に合わせ、前景調整用アイコンCの最大奥行き位置指定端C1及び最大飛出し位置指定端C2をそれぞれ総奥行き量の画面位置A1と最大飛出し位置A3との間に置くようにしている。このようにすれば、背景は画面位置A1よりも奥側に見え、前景のみが画面位置A1より手前に飛び出して見えるようになり、最も標準的な立体感が得られる調整となる。
 図7(b)は、前景調整用アイコンCの最大奥行き位置指定端C1と最大飛出し位置指定端C2との中央部を総奥行き量の画面位置A1に合わせ、背景調整用アイコンBの最大奥行き位置指定端B1及び最大飛出し位置指定端B2をそれぞれ総奥行き量の最大奥行き位置A2及び前景調整用アイコンCの最大奥行き位置指定端C1に合わせるようにしている。このようにすれば、前景が表示画面20aの位置に見え、前景の奥行きと背景の奥行きとが連続しており、目に優しく緩やかな立体感が得られる調整となる。
 図7(c)は、背景調整用アイコンBを総奥行き量の最大奥行き位置A2の付近に配置し、前景調整用アイコンCを総奥行き量の最大飛出し位置A3の付近に配置し、背景調整用アイコンBと前景調整用アイコンCとが不連続となるようにしている。このようにすれば、背景は奥深い位置に見え、前景は最大限手前に飛び出して見えるようになり、迫力ある立体感が得られる調整となる。
 図7(d)は、前景調整用アイコンCを総奥行き量の最大飛出し位置A3の付近に配置し、背景調整用アイコンBを総奥行き量の大部分を占めるように配置している。このようにすれば、草原や海のような景色に対して広がりが強調されて壮大さが増す調整となる。
 図7(e)は、背景調整用アイコンBを総奥行き量の最大奥行き位置A2の付近に配置し、前景調整用アイコンCを総奥行き量の画面位置A1を跨いでその大部分を占めるように配置している。このようにすれば、物品に接近して撮影したような物撮り映像等において、物品の形状や内部の凹凸感が強調される調整となる。
 ここで、図7(a)~(e)に示した背景調整用アイコンB及び前景調整用アイコンCの各調整位置は、立体視映像表示モードに対応させて例えばメモリ部22b等に保存することができる。すなわち、ユーザは、リモートコントローラ24のメニューキー24jを操作して、階層構造となされた複数のメニュー画面に分け入ることにより、図8に一例を示すようなモード設定画面38を映像表示部20に表示させる。
 このモード設定画面38は、画面内に複数(図示の場合は5つ)のモードキー38a~38eを作成可能であり、作成された各モードキー38a~38eにそれぞれユーザが名称を付すことができる。図8では、5つのモードキー38a~38eが作成され、各モードキー38a~38eにそれぞれ「標準モード」、「自然モード」、「迫力モード」、「景色モード」、「物撮りモード」なる名称が付加された状態を示している。
 そして、図7(a)に示した調整位置を標準モードキー38aに対応させて保存し、図7(b)に示した調整位置を自然モードキー38bに対応させて保存し、図7(c)に示した調整位置を迫力モードキー38cに対応させて保存し、図7(d)に示した調整位置を景色モードキー38dに対応させて保存し、図7(e)に示した調整位置を物撮りモードキー38eに対応させて保存することができる。
 このようにすれば、ユーザは、モード設定画面38を表示させて、所望のモードキー38a~38eを操作することにより、その操作されたモードキー38a~38eに対応して保存されている背景調整用アイコンB及び前景調整用アイコンCの各調整位置で、立体視映像を表示させることができるようになる。
 また、ユーザが、背景調整用アイコンB及び前景調整用アイコンCの各調整位置をモードキー38a~38eに対応させて保存するのではなく、デジタルテレビジョン放送受信装置11の工場出荷時に、図7(a)~(e)に示した背景調整用アイコンB及び前景調整用アイコンCの各調整位置に対応するモードキー38a~38eを含むモード設定画面38を予め用意しておくことも可能である。
 さらに、上記した実施の形態では、シャッタ眼鏡方式で立体視映像表示を行なうデジタルテレビジョン放送受信装置11について説明したが、多視差方式による裸眼型の立体視映像表示を行なう装置についても、背景及び前景について最大飛出し位置と最大奥行き位置とをそれぞれ独立に調整することは可能である。
 また、上記した実施の形態では、平面視表示用の映像信号を立体視表示用の映像信号に変換するデジタルテレビジョン放送受信装置11について説明したが、立体視表示用の映像信号を放送やネットワークサーバ等から取得する装置についても、背景及び前景について最大飛出し位置と最大奥行き位置とをそれぞれ独立に調整することは可能である。この場合、立体視表示用の映像信号の視差量から背景と前景とを分離することも可能である。
 なお、この発明は上記した実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を種々変形して具体化することができる。また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係る構成要素を適宜組み合わせても良いものである。

Claims (9)

  1.  立体視映像表示用の映像信号から背景と前景とを分離する分離手段と、
     前記分離手段で分離された背景及び前景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に調整する調整手段とを具備する立体視映像処理装置。
  2.  前記調整手段は、前記分離手段で分離された背景及び前景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に設定する操作を行なわせるための入力手段を備える請求項1記載の立体視映像処理装置。
  3.  前記入力手段は、奥行き調整操作画面を表示し、当該奥行き調整操作画面上で、背景及び前景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に設定する操作を行なわせる請求項2記載の立体視映像処理装置。
  4.  前記奥行き調整操作画面は、立体視表示映像の一部に重ねて表示される請求項3記載の立体視映像処理装置。
  5.  前記奥行き調整操作画面は、背景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に設定するための第1のアイコンと、前景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に設定するための第2のアイコンとを表示する請求項3記載の立体視映像処理装置。
  6.  前記入力手段で設定された背景及び前景の映像信号に対する最大奥行き位置と最大飛出し位置とを、立体視映像表示モードに対応させて保存する保存手段を備える請求項2記載の立体視映像処理装置。
  7.  前記調整手段は、背景及び前景の映像信号に対する最大奥行き位置と最大飛出し位置とが、立体視映像表示モードに対応して予め保存されている保存手段から、立体視映像表示モードを指定して背景及び前景の映像信号に対する最大奥行き位置と最大飛出し位置とを読み出し、前記分離手段で分離された背景及び前景の映像信号に対する調整に供させる請求項1記載の立体視映像処理装置。
  8.  分離手段により、立体視映像表示用の映像信号から背景と前景とを分離し、
     調整手段により、前記分離手段で分離された背景及び前景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に調整する立体視映像処理方法。
  9.  立体視映像表示用の映像信号から背景と前景とを分離する処理と、
     分離された背景及び前景の映像信号に対して最大奥行き位置と最大飛出し位置とをそれぞれ独立に調整する処理とを、コンピュータに実行させる立体視映像処理用プログラム。
PCT/JP2013/059535 2013-03-29 2013-03-29 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム WO2014155670A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2013/059535 WO2014155670A1 (ja) 2013-03-29 2013-03-29 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
JP2014541235A JP5851625B2 (ja) 2013-03-29 2013-03-29 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
US14/468,090 US20140362198A1 (en) 2013-03-29 2014-08-25 Stereoscopic Video Processor, Stereoscopic Video Processing Method and Stereoscopic Video Processing Program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/059535 WO2014155670A1 (ja) 2013-03-29 2013-03-29 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/468,090 Continuation US20140362198A1 (en) 2013-03-29 2014-08-25 Stereoscopic Video Processor, Stereoscopic Video Processing Method and Stereoscopic Video Processing Program

Publications (1)

Publication Number Publication Date
WO2014155670A1 true WO2014155670A1 (ja) 2014-10-02

Family

ID=51622732

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/059535 WO2014155670A1 (ja) 2013-03-29 2013-03-29 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム

Country Status (3)

Country Link
US (1) US20140362198A1 (ja)
JP (1) JP5851625B2 (ja)
WO (1) WO2014155670A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US10242474B2 (en) * 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065162A (ja) * 2003-08-20 2005-03-10 Matsushita Electric Ind Co Ltd 表示装置、送信装置、送受信システム、送受信方法、表示方法、送信方法、およびリモコン
JP2010226500A (ja) * 2009-03-24 2010-10-07 Toshiba Corp 立体画像表示装置および立体画像表示方法
JP2012124885A (ja) * 2010-11-16 2012-06-28 Panasonic Corp 表示装置及び表示方法
JP2012205148A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 電子機器
JP2013058849A (ja) * 2011-09-07 2013-03-28 Sharp Corp 立体画像処理装置、立体画像処理方法、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065162A (ja) * 2003-08-20 2005-03-10 Matsushita Electric Ind Co Ltd 表示装置、送信装置、送受信システム、送受信方法、表示方法、送信方法、およびリモコン
JP2010226500A (ja) * 2009-03-24 2010-10-07 Toshiba Corp 立体画像表示装置および立体画像表示方法
JP2012124885A (ja) * 2010-11-16 2012-06-28 Panasonic Corp 表示装置及び表示方法
JP2012205148A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 電子機器
JP2013058849A (ja) * 2011-09-07 2013-03-28 Sharp Corp 立体画像処理装置、立体画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP5851625B2 (ja) 2016-02-03
US20140362198A1 (en) 2014-12-11
JPWO2014155670A1 (ja) 2017-02-16

Similar Documents

Publication Publication Date Title
JP5851625B2 (ja) 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
US9021399B2 (en) Stereoscopic image reproduction device and method for providing 3D user interface
US9307224B2 (en) GUI providing method, and display apparatus and 3D image providing system using the same
US9055258B2 (en) Video display apparatus and video display method
US20100265315A1 (en) Three-dimensional image combining apparatus
US20110063422A1 (en) Video processing system and video processing method
JP2011086283A (ja) 動的レンダリング用3次元ビデオキャプチャ・ワークフロー用のシステム及び方法
CN102461180A (zh) 能进行3d模式选择的立体影像再现装置及方法
JP2007295559A (ja) ビデオ処理および表示
WO2019004073A1 (ja) 画像配置決定装置、表示制御装置、画像配置決定方法、表示制御方法及びプログラム
JP6803463B2 (ja) ディスプレイ装置及びその制御方法
US8416288B2 (en) Electronic apparatus and image processing method
US8855472B2 (en) Video editing apparatus, video editing method, program, and integrated circuit
US8730310B2 (en) Reproducing device, reproduction control method and program
JP5058354B1 (ja) 電子機器、表示制御方法及びプログラム
JP5050094B2 (ja) 映像処理装置及び映像処理方法
US9253477B2 (en) Display apparatus and method for processing image thereof
JP5496802B2 (ja) 画像表示装置、制御方法、プログラム、及び、記録媒体
JP5355758B2 (ja) 映像処理装置及び映像処理方法
US8994796B2 (en) Stereo image display apparatus and stereo image display method
JP5496803B2 (ja) 画像表示装置、画像表示方法、プログラムおよび記録媒体
KR102014149B1 (ko) 영상표시장치, 및 그 동작방법
CN115665461A (zh) 一种视频录制方法及虚拟现实设备
KR20110088952A (ko) 썸네일 영상을 포함하는 3d 오브젝트를 표시할 수 있는 영상표시장치 및 그 동작 제어방법
JP2012095039A (ja) 立体画像表示装置、立体画像表示方法およびプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014541235

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13879739

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13879739

Country of ref document: EP

Kind code of ref document: A1