JP5395934B1 - Video processing apparatus and video processing method - Google Patents

Video processing apparatus and video processing method Download PDF

Info

Publication number
JP5395934B1
JP5395934B1 JP2012191702A JP2012191702A JP5395934B1 JP 5395934 B1 JP5395934 B1 JP 5395934B1 JP 2012191702 A JP2012191702 A JP 2012191702A JP 2012191702 A JP2012191702 A JP 2012191702A JP 5395934 B1 JP5395934 B1 JP 5395934B1
Authority
JP
Japan
Prior art keywords
search range
tan
camera
viewer
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012191702A
Other languages
Japanese (ja)
Other versions
JP2014049951A (en
Inventor
本 崇 博 瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012191702A priority Critical patent/JP5395934B1/en
Priority to CN201310026387.3A priority patent/CN103686122A/en
Application granted granted Critical
Publication of JP5395934B1 publication Critical patent/JP5395934B1/en
Publication of JP2014049951A publication Critical patent/JP2014049951A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】少ない処理量で視聴者を検出可能な映像処理装置および映像処理方法を提供する。
【解決手段】実施形態によれば、映像処理装置は、探索範囲算出部と、視聴者探索部とを備えている。前記探索範囲算出部は、表示部と視聴者との距離である視聴距離に基づいて、カメラで撮影された映像の一部である探索範囲を算出する。前記視聴者探索部は、前記探索範囲内で視聴者を探索する。
【選択図】図2
A video processing apparatus and a video processing method capable of detecting a viewer with a small amount of processing are provided.
According to an embodiment, a video processing apparatus includes a search range calculation unit and a viewer search unit. The search range calculation unit calculates a search range that is a part of an image captured by the camera, based on a viewing distance that is a distance between the display unit and the viewer. The viewer search unit searches for viewers within the search range.
[Selection] Figure 2

Description

本発明の実施形態は、映像処理装置および映像処理方法に関する。   Embodiments described herein relate generally to a video processing apparatus and a video processing method.

近年、視聴者が特殊なメガネを使用せずに裸眼で立体映像を見ることができる立体映像表示装置(いわゆる裸眼3Dテレビ)が普及しつつある。この立体映像表示装置は、視点の異なる複数の画像を表示する。そして、それらの画像の光線は、例えばパララックスバリア、レンチキュラレンズなどによって出力方向を制御され、視聴者の両眼に導かれる。視聴者の位置が適切であれば、視聴者は、左目と右目とで異なる視差画像を見ることになるため、映像を立体的に認識することができる。   In recent years, stereoscopic image display devices (so-called naked-eye 3D televisions) that allow viewers to view stereoscopic images with the naked eye without using special glasses have become widespread. This stereoscopic video display device displays a plurality of images with different viewpoints. The light rays of these images are guided to the viewer's eyes by controlling the output direction by, for example, a parallax barrier or a lenticular lens. If the viewer's position is appropriate, the viewer sees different parallax images for the left eye and the right eye, and thus can recognize the image in three dimensions.

しかしながら、裸眼3Dテレビでは、視聴者の位置によっては映像が立体的に見えないという問題がある。   However, the naked-eye 3D television has a problem that the image cannot be seen stereoscopically depending on the position of the viewer.

そこで、カメラで立体映像表示装置の前方を撮影して視聴者を検出し、視聴者の位置で映像が立体的に見えるように視域の制御を行うトラッキング技術が知られている。ところが、視聴者の位置を検出する処理の負担が大きいと、スムーズに視域を制御できなくなるおそれがある。   Therefore, a tracking technique is known in which a viewer is detected by photographing the front of a stereoscopic video display device with a camera and the viewing zone is controlled so that the video can be viewed stereoscopically at the viewer's position. However, if the processing load for detecting the viewer's position is heavy, the viewing zone may not be smoothly controlled.

特開2008−234578号公報JP 2008-234578 A

少ない処理量で視聴者を検出可能な映像処理装置および映像処理方法を提供する。   Provided are a video processing apparatus and a video processing method capable of detecting a viewer with a small processing amount.

実施形態によれば、顔辞書を用いて視聴者の顔を検出することで、カメラで撮影された映像の一部である探索範囲内から、視聴者を探索する視聴者探索部と、前記検出された視聴者の顔に基づいて裸眼立体表示用の表示部と前記視聴者との距離である視聴距離を含む前記視聴者の実空間での位置情報を推定する視聴者位置推定部と、前記推定された視聴距離に基づいて前記探索範囲を設定する探索範囲算出部と、前記推定された視聴者の位置情報基づいて視域を設定する視域制御部と、を備える映像処理装置が提供される。 According to the embodiment, by detecting a viewer's face using a face dictionary, a viewer search unit that searches for a viewer from within a search range that is a part of an image captured by a camera, and the detection based on the face of the viewer, and the viewer position estimator for estimating the position information in the real space of the viewer including a viewing distance which is a distance between the display section and the viewer for autostereoscopic display, A video processing apparatus comprising: a search range calculation unit that sets the search range based on the estimated viewing distance; and a viewing zone control unit that sets a viewing range based on the estimated viewer position information. Provided.

第1の実施形態に係る映像表示装置100の外観図。1 is an external view of a video display device 100 according to a first embodiment. 第1の実施形態に係る映像表示装置100の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a video display device 100 according to a first embodiment. 液晶パネル1およびレンチキュラレンズ2の一部を上方から見た図。The figure which looked at a part of liquid crystal panel 1 and the lenticular lens 2 from upper direction. 視域の概略を示す図。The figure which shows the outline of a visual field. 算出される探索範囲の一例を示す図。The figure which shows an example of the search range calculated. 垂直方向の探索範囲の算出手法を説明する図。The figure explaining the calculation method of the search range of a perpendicular direction. 水平方向の探索範囲の算出手法を説明する図。The figure explaining the calculation method of the search range of a horizontal direction. 第1の実施形態に係るコントローラ10の処理動作の一例を示すフローチャート。5 is a flowchart showing an example of processing operation of the controller 10 according to the first embodiment. 第2の実施形態に係る映像表示装置100の概略構成を示すブロック図。The block diagram which shows schematic structure of the video display apparatus 100 which concerns on 2nd Embodiment. 算出される視域の一例を示す図。The figure which shows an example of the visual field calculated. 第2の実施形態に係るコントローラ10’の処理動作の一例を示すフローチャート。9 is a flowchart showing an example of processing operation of a controller 10 ′ according to the second embodiment. 第3の実施形態における視聴者探索部13の処理動作を説明する図。The figure explaining the processing operation of the viewer search part 13 in 3rd Embodiment. 図2の変形例である映像表示装置100’の概略構成を示すブロック図。The block diagram which shows schematic structure of the video display apparatus 100 'which is a modification of FIG.

以下、実施形態について、図面を参照しながら具体的に説明する。   Hereinafter, embodiments will be specifically described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る映像表示装置100の外観図であり、図2は、その概略構成を示すブロック図である。映像表示装置100は、液晶パネル1と、レンチキュラレンズ2と、カメラ3と、受光部4と、コントローラ10とを備えている。
(First embodiment)
FIG. 1 is an external view of a video display device 100 according to the first embodiment, and FIG. 2 is a block diagram showing a schematic configuration thereof. The video display device 100 includes a liquid crystal panel 1, a lenticular lens 2, a camera 3, a light receiving unit 4, and a controller 10.

液晶パネル(表示部)1は、視域内にいる視聴者が立体映像として観察可能な複数の視差画像を表示する。この液晶パネル1は、例えば55インチサイズのパネルであり、4K2K(3840*2160)の画素を有する。これに対して、レンチキュラレンズを斜めに配置する等の工夫により、立体視の用途のために水平方向に11520(=1280*9)個、垂直方向に720個の画素が配置されているのに相当する効果を持たせることが可能である。以下では、水平方向の画素数を拡張したこのモデルで説明する。また、各画素内には、3つのサブピクセル、すなわち、Rサブピクセル、GサブピクセルおよびBサブピクセルが垂直方向に形成されている。液晶パネル1には、背面に設けられるバックライト装置(不図示)から光が照射される。各画素はコントローラ10から供給される画像信号に応じた輝度の光を透過させる。   The liquid crystal panel (display unit) 1 displays a plurality of parallax images that can be observed as stereoscopic images by a viewer in the viewing area. The liquid crystal panel 1 is a 55-inch panel, for example, and has 4K2K (3840 * 2160) pixels. On the other hand, by means such as arranging the lenticular lens obliquely, 11520 (= 1280 * 9) pixels in the horizontal direction and 720 pixels in the vertical direction are arranged for stereoscopic use. It is possible to have a corresponding effect. In the following, this model will be described in which the number of pixels in the horizontal direction is expanded. In each pixel, three subpixels, that is, an R subpixel, a G subpixel, and a B subpixel are formed in the vertical direction. The liquid crystal panel 1 is irradiated with light from a backlight device (not shown) provided on the back surface. Each pixel transmits light having a luminance corresponding to the image signal supplied from the controller 10.

レンチキュラレンズ(開口制御部)2は、液晶パネル1(表示部)に表示された複数の視差画像を所定の方向に出力する。このレンチキュラレンズ2は、水平方向に沿って配置される複数の凸部を有し、その数は液晶パネル1の水平方向画素数の1/9である。そして、水平方向に配置される9個の画素につき1つの凸部が対応するように、レンチキュラレンズ2は液晶パネル1の表面に貼り付けられている。各画素を透過した光は凸部の頂点付近から指向性を持って特定の方向へ出力される。   The lenticular lens (aperture control unit) 2 outputs a plurality of parallax images displayed on the liquid crystal panel 1 (display unit) in a predetermined direction. The lenticular lens 2 has a plurality of convex portions arranged along the horizontal direction, and the number thereof is 1/9 of the number of pixels in the horizontal direction of the liquid crystal panel 1. The lenticular lens 2 is affixed to the surface of the liquid crystal panel 1 so that one convex portion corresponds to nine pixels arranged in the horizontal direction. The light transmitted through each pixel is output in a specific direction with directivity from the vicinity of the top of the convex portion.

以下の説明では、レンチキュラレンズ2の各凸部に対応して9個の画素を設けて、9視差の多視差方式を採用可能な例を説明する。多視差方式では、各凸部に対応する9個の画素にそれぞれ第1〜第9視差画像を表示する。第1〜第9視差画像とは、液晶パネル1の水平方向に沿って並ぶ9つの視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で第1〜第9視差画像のうちの1つの視差画像を、右目で他の1つの視差画像をそれぞれ見ることにより、映像を立体視できる。多視差方式によると、視差の数を増やすほど、視域を広げることができる。視域とは、液晶パネル1の前方から液晶パネル1を見たときに映像を立体視可能な領域をいう。   In the following description, an example in which nine pixels are provided corresponding to each convex portion of the lenticular lens 2 and a 9-parallax multi-parallax method can be adopted will be described. In the multi-parallax method, the first to ninth parallax images are displayed on nine pixels corresponding to the respective convex portions. The first to ninth parallax images are images obtained by viewing the subject from nine viewpoints arranged along the horizontal direction of the liquid crystal panel 1. The viewer can stereoscopically view the video through the lenticular lens 2 by viewing one parallax image of the first to ninth parallax images with the left eye and the other parallax image with the right eye. According to the multi-parallax method, the viewing zone can be expanded as the number of parallaxes is increased. The viewing area refers to an area in which an image can be viewed stereoscopically when the liquid crystal panel 1 is viewed from the front of the liquid crystal panel 1.

なお、液晶パネル1は各凸部に対応する9個の画素で同一の色を表示することにより、2次元画像を表示することもできる。   The liquid crystal panel 1 can also display a two-dimensional image by displaying the same color with nine pixels corresponding to each convex portion.

また、本実施形態では、レンチキュラレンズ2の凸部と表示される視差画像との相対的な位置関係、すなわち、各凸部に対応する9個の画素にどのように視差画像を表示するか、に応じて、視域を可変制御できるようにしている。以下、視域の制御について説明する。   In the present embodiment, the relative positional relationship between the convex portion of the lenticular lens 2 and the displayed parallax image, that is, how to display the parallax image on the nine pixels corresponding to each convex portion, The viewing zone can be variably controlled according to the situation. Hereinafter, control of the viewing zone will be described.

図3は、液晶パネル1およびレンチキュラレンズ2の一部を上方から見た図である。同図の網掛けの領域が視域を示しており、視域から液晶パネル1を見ると映像を立体視できる。他の領域は逆視やクロストークが発生する領域であり、映像を立体視するのが困難な領域である。また、視聴者が視域の中央にいるほど立体感を感じることができるが、視域内であってもその端に視聴者がいるとあまり立体感を感じられなかったり逆視等が発生したりすることもある。   FIG. 3 is a view of a part of the liquid crystal panel 1 and the lenticular lens 2 as viewed from above. The shaded area in the figure shows the viewing area, and the image can be viewed stereoscopically when the liquid crystal panel 1 is viewed from the viewing area. The other areas are areas where reverse viewing and crosstalk occur, and it is difficult to stereoscopically view the video. Also, the more the viewer is in the center of the viewing area, the greater the sense of stereoscopic effect. However, even within the viewing area, if the viewer is at the end of the viewing area, the stereoscopic effect may not be felt or reverse viewing may occur. Sometimes.

図3は、液晶パネル1とレンチキュラレンズ2との相対的な位置関係、より具体的には、液晶パネル1とレンチキュラレンズ2との距離、あるいは液晶パネル1とレンチキュラレンズ2との水平方向のずれ量によって、視域が変化する様子を示している。   3 shows the relative positional relationship between the liquid crystal panel 1 and the lenticular lens 2, more specifically, the distance between the liquid crystal panel 1 and the lenticular lens 2, or the horizontal shift between the liquid crystal panel 1 and the lenticular lens 2. FIG. It shows how the viewing zone changes depending on the amount.

実際には、レンチキュラレンズ2は、液晶パネル1に高精度に位置合わせをして貼り付けられるため、液晶パネル1とレンチキュラレンズ2との相対的な位置を物理的に変更することは困難である。   Actually, since the lenticular lens 2 is attached to the liquid crystal panel 1 with high accuracy, it is difficult to physically change the relative position between the liquid crystal panel 1 and the lenticular lens 2. .

そこで、本実施形態では、液晶パネル1の各画素に表示される第1〜第9視差画像の表示位置をずらすことで、見かけ上、液晶パネル1とレンチキュラレンズ2との相対的な位置関係を変更し、これにより、視域の調整を行う。   Therefore, in the present embodiment, the relative positional relationship between the liquid crystal panel 1 and the lenticular lens 2 is apparently displayed by shifting the display positions of the first to ninth parallax images displayed on each pixel of the liquid crystal panel 1. Change and thus adjust the viewing zone.

例えば、各凸部に対応する9個の画素に第1〜第9視差画像をそれぞれ表示した場合(図3(a))に比べ、視差画像を全体に右側にずらして表示した場合(図3(b))、視域は左側に移動する。逆に、視差画像を全体に左側にずらして表示した場合、視域は右側に移動する。   For example, when the first to ninth parallax images are respectively displayed on nine pixels corresponding to the respective convex portions (FIG. 3A), the parallax images are displayed while being shifted to the right as a whole (FIG. 3). (B)), the viewing zone moves to the left. Conversely, when the parallax image is displayed shifted to the left as a whole, the viewing zone moves to the right.

また、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を外側に大きくずらして表示した場合(図3(c))、視域は液晶パネル1に近づく方向に移動する。なお、ずらす視差画像とずらさない視差画像との間の画素や、ずらす量が異なる視差画像間の画素は、周囲の画素に応じて適宜補間すればよい。また、図3(c)とは逆に、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を中心側に大きくずらして表示した場合、視域は液晶パネル1から遠ざかる方向に移動する。   Further, when the parallax image is not shifted in the vicinity of the center in the horizontal direction, and the parallax image is displayed with a larger shift toward the outside toward the outer side of the liquid crystal panel 1 (FIG. 3C), the viewing zone is closer to the liquid crystal panel 1. Moving. In addition, what is necessary is just to interpolate suitably the pixel between the parallax image which shifts and the parallax image which does not shift, and the pixel between the parallax images from which the shift amount differs according to a surrounding pixel. Contrary to FIG. 3C, when the parallax image is not shifted near the center in the horizontal direction, and the parallax image is displayed with a large shift toward the center toward the outside of the liquid crystal panel 1, the viewing area is the liquid crystal panel 1. Move away from the camera.

このように、視差画像の全体あるいは一部をずらして表示することにより、視域を液晶パネル1に対して左右方向あるいは前後方向に移動させることができる。図3では説明を簡略化するために視域を1つだけ示しているが、実際には、図4に示すように、複数の視域が視聴領域Pに存在し、これらは連動して移動する。視域は、後述する図2のコントローラ10により制御される。   As described above, the viewing area can be moved in the left-right direction or the front-rear direction with respect to the liquid crystal panel 1 by shifting the whole or part of the parallax image. In FIG. 3, only one viewing area is shown for the sake of simplicity, but actually, as shown in FIG. 4, a plurality of viewing areas exist in the viewing area P, and these move in conjunction with each other. To do. The viewing zone is controlled by the controller 10 shown in FIG.

図1に戻り、カメラ3は、液晶パネル1の下部中央付近に、所定の仰角で取り付けられ、液晶パネル1の前方の所定の範囲を撮影する。撮影された映像はコントローラ10に供給され、視聴者の位置や視聴者の顔等を検出するために用いられる。カメラ3は、動画像と静止画像のどちらを撮影してもよい。また、カメラ3の取り付け位置や角度に制限はなく、液晶パネル1前面で視聴している視聴者を撮影できればよい。   Returning to FIG. 1, the camera 3 is attached at a predetermined elevation near the lower center of the liquid crystal panel 1, and photographs a predetermined range in front of the liquid crystal panel 1. The captured video is supplied to the controller 10 and used to detect the viewer's position, the viewer's face, and the like. The camera 3 may shoot either a moving image or a still image. Moreover, there is no restriction | limiting in the attachment position and angle of the camera 3, What is necessary is just to be able to image | photograph the viewer watching on the front surface of the liquid crystal panel 1.

受光部4は、例えば液晶パネル1の下部の左側に設けられる。そして、受光部4は視聴者が使用するリモコンから送信される赤外線信号を受信する。この赤外線信号は、立体映像を表示するか2次元映像を表示するか、あるいは、メニューを表示するか等を示す信号を含む。   The light receiving unit 4 is provided, for example, on the left side of the lower part of the liquid crystal panel 1. And the light-receiving part 4 receives the infrared signal transmitted from the remote control which a viewer uses. This infrared signal includes a signal indicating whether to display a stereoscopic image, a two-dimensional image, or a menu.

次に、コントローラ10の構成要素の詳細について説明する。図2に示すように、コントローラ10は、チューナデコーダ11と、視差画像変換部12と、視聴者探索部13と、視聴者位置推定部14と、視域パラメータ算出部15と、画像調整部16と、探索範囲算出部17とを有する。コントローラ10は、例えば1つのIC(Integrated Circuit)として実装され、液晶パネル1の裏側に配置される。もちろん、コントローラ10の一部をソフトウェアで実装してもよい。   Next, details of the components of the controller 10 will be described. As shown in FIG. 2, the controller 10 includes a tuner decoder 11, a parallax image conversion unit 12, a viewer search unit 13, a viewer position estimation unit 14, a viewing area parameter calculation unit 15, and an image adjustment unit 16. And a search range calculation unit 17. The controller 10 is mounted as one IC (Integrated Circuit), for example, and is disposed on the back side of the liquid crystal panel 1. Of course, a part of the controller 10 may be implemented by software.

チューナデコーダ(受信部)11は入力される放送波を受信および選局し、符号化された入力映像信号を復号する。放送波に電子番組表(EPG)等のデータ放送の信号が重畳されている場合、チューナデコーダ11はこれを抽出する。あるいは、チューナデコーダ11は、放送波ではなく、光ディスク再生装置やパーソナルコンピュータ等の映像出力機器から符号化された入力映像信号を受信し、これを復号する。復号された信号はベースバンド映像信号とも呼ばれ、視差画像変換部12に供給される。なお、映像表示装置100が放送波を受信せず、専ら映像出力機器から受信する入力映像信号を表示する場合、チューナデコーダ11に代えて単に復号機能を有するデコーダを受信部として設けてもよい。   A tuner decoder (receiver) 11 receives and selects an input broadcast wave and decodes an encoded input video signal. When a data broadcast signal such as an electronic program guide (EPG) is superimposed on the broadcast wave, the tuner decoder 11 extracts it. Alternatively, the tuner decoder 11 receives not the broadcast wave but an input video signal encoded from a video output device such as an optical disk playback device or a personal computer and decodes it. The decoded signal is also called a baseband video signal, and is supplied to the parallax image conversion unit 12. When the video display apparatus 100 does not receive broadcast waves and displays an input video signal received exclusively from the video output device, a decoder having a decoding function may be provided as a receiving unit instead of the tuner decoder 11.

チューナデコーダ11が受信する入力映像信号は、2次元の映像信号であってもよいし、フレームパッキング(FP)、サイドバイサイド(SBS)あるいはトップアンドボトム(TAB)方式等で左目用および右目用の画像を含む3次元の映像信号であってもよい。また、映像信号は3視差以上の画像含む3次元の映像信号であってもよい。   The input video signal received by the tuner decoder 11 may be a two-dimensional video signal, or left-eye and right-eye images by frame packing (FP), side-by-side (SBS), top-and-bottom (TAB), or the like. May be a three-dimensional video signal. In addition, the video signal may be a three-dimensional video signal including an image having three or more parallaxes.

視差画像変換部12は、映像を立体表示するために、ベースバンド映像信号を複数の視差画像信号に変換する。ベースバンド映像信号が2次元の映像信号であるか、3次元の映像信号であるか、に応じて、視差画像変換部12の処理内容が異なる。   The parallax image conversion unit 12 converts the baseband video signal into a plurality of parallax image signals in order to stereoscopically display the video. The processing content of the parallax image conversion unit 12 differs depending on whether the baseband video signal is a two-dimensional video signal or a three-dimensional video signal.

2次元の映像信号または8視差以下の画像を含む3次元の映像信号が入力された場合、視差画像変換部12は、映像信号における各画素の奥行き値に基づいて、第1〜第9視差画像信号を生成する。奥行き値は、各画素がどの程度液晶パネル1に対して手前または奥に見えるように表示するか、を示す値である。奥行き値は予め入力映像信号に付加されていてもよいし、入力映像信号の特徴に基づいて動き検出、構図識別および人間の顔検出等を行って奥行き値を生成してもよい。一方、9視差の画像を含む3次元の映像信号が入力された場合、視差画像変換部12はその映像信号を用いて第1〜第9視差画像信号を生成する。   When a two-dimensional video signal or a three-dimensional video signal including an image of 8 parallax or less is input, the parallax image conversion unit 12 performs first to ninth parallax images based on the depth value of each pixel in the video signal. Generate a signal. The depth value is a value indicating how much each pixel is displayed so as to be seen in front of or behind the liquid crystal panel 1. The depth value may be added to the input video signal in advance, or the depth value may be generated by performing motion detection, composition identification, human face detection, and the like based on the characteristics of the input video signal. On the other hand, when a three-dimensional video signal including 9 parallax images is input, the parallax image conversion unit 12 generates first to ninth parallax image signals using the video signals.

以上のようにして生成された入力映像信号の視差画像信号は画像調整部16に供給される。   The parallax image signal of the input video signal generated as described above is supplied to the image adjustment unit 16.

視聴者探索部13は、カメラ3で撮影された映像の一部である探索範囲内で、視聴者を探索する。より具体的には、視聴者探索部13は、内部に記憶している顔辞書を用いて視聴者の顔を検出することにより、視聴者を探索する。顔辞書とは、人間の目、鼻、口等、顔の特徴を示す情報である。視聴者探索部13の処理により、映像における視聴者の顔の位置(x,y)および視聴距離に対応するパラメータとして顔幅w等が算出される。   The viewer search unit 13 searches for viewers within a search range that is a part of the video shot by the camera 3. More specifically, the viewer search unit 13 searches for viewers by detecting the viewer's face using a face dictionary stored therein. The face dictionary is information indicating facial features such as human eyes, nose and mouth. By the processing of the viewer search unit 13, the face width w and the like are calculated as parameters corresponding to the position (x, y) of the viewer's face in the video and the viewing distance.

ここで視聴者探索部13の探索範囲は、後述する探索範囲算出部17により定められ、カメラ3で撮影された映像の全体ではなくその一部のみを探索範囲とする。これにより視聴者探索の処理量を削減できる。   Here, the search range of the viewer search unit 13 is determined by a search range calculation unit 17 to be described later, and only a part of the video captured by the camera 3 is used as the search range. Thereby, the processing amount of the viewer search can be reduced.

視聴者位置推定部14は、視聴者探索部13の処理結果に基づいて、視聴者の実空間での位置情報を推定する。視聴者の位置情報は、例えば液晶パネル1の中央を原点とするX軸(水平方向)、Y軸(垂直方向)およびZ軸(液晶パネル1に対して直交する方向)上の位置として表される。例えば、視聴者位置推定部14は、算出された顔幅w等に基づいて視聴距離に対応するZ軸上の位置を推定し、映像における視聴者の顔の位置(x,y)およびカメラ3の撮影範囲(既知)に基づいてX,Y軸上の位置を推定する。   The viewer position estimation unit 14 estimates the position information of the viewer in the real space based on the processing result of the viewer search unit 13. The viewer's position information is represented as, for example, positions on the X axis (horizontal direction), Y axis (vertical direction), and Z axis (direction orthogonal to the liquid crystal panel 1) with the center of the liquid crystal panel 1 as the origin. The For example, the viewer position estimation unit 14 estimates the position on the Z axis corresponding to the viewing distance based on the calculated face width w and the like, and the position (x, y) of the viewer's face in the video and the camera 3 The position on the X and Y axes is estimated based on the imaging range (known).

なお、視聴者探索部13および視聴者位置推定部14が視聴者の位置を検出する手法に特に制限はなく、カメラ3は赤外線カメラでもよいし、音波を用いて視聴者の位置を検出してもよい。   Note that the viewer search unit 13 and the viewer position estimation unit 14 have no particular limitation on the method of detecting the viewer's position, and the camera 3 may be an infrared camera or may detect the viewer's position using sound waves. Also good.

視域パラメータ算出部15は、視聴者位置推定部14から供給された視聴者の位置情報を用いて、検出された視聴者を収める視域を設定するための視域パラメータを算出する。この視域パラメータは、例えば、図3で説明した視差画像をずらす量であり、1つのパラメータ、または複数のパラメータの組み合わせである。そして、視域パラメータ算出部15は、算出した視域パラメータを画像調整部16に供給する。   The viewing zone parameter calculation unit 15 uses the viewer position information supplied from the viewer position estimation unit 14 to calculate a viewing zone parameter for setting a viewing zone in which the detected viewer is placed. The viewing zone parameter is, for example, an amount by which the parallax image described in FIG. 3 is shifted, and is one parameter or a combination of a plurality of parameters. Then, the viewing zone parameter calculation unit 15 supplies the calculated viewing zone parameter to the image adjustment unit 16.

画像調整部(視域制御部)16は、視域を制御するために、液晶パネル1に立体映像が表示される場合に算出された視域パラメータに応じて、視差画像信号をずらしたり補間したりする調整を行った後に、液晶パネル1に供給し、液晶パネル1に表示させる。   The image adjustment unit (viewing zone control unit) 16 shifts or interpolates the parallax image signal according to the viewing zone parameter calculated when a stereoscopic image is displayed on the liquid crystal panel 1 in order to control the viewing zone. After the adjustment, the liquid crystal panel 1 is supplied and displayed on the liquid crystal panel 1.

探索範囲算出部17は、視聴者と液晶パネル1との距離である視聴距離を考慮して、視聴者探索部13の探索範囲を算出する。図5は、算出される探索範囲の一例を示す図である。図示のように、探索範囲算出部17はカメラ3で撮影される映像のうちの一部を探索範囲とする。より具体的には、探索範囲算出部17は、垂直方向探索範囲算出部17aと、水平方向探索範囲算出部17bとを有する。そして、カメラ3で撮影された映像のうちの探索を行わない範囲として、垂直方向探索範囲算出部17aは上側の探索省略範囲Pvtおよび下側の探索省略範囲Pvbを算出し、水平方向探索範囲算出部17bは左側の探索省略範囲Phlおよび右側の探索省略範囲Phrを算出する。   The search range calculation unit 17 calculates the search range of the viewer search unit 13 in consideration of the viewing distance that is the distance between the viewer and the liquid crystal panel 1. FIG. 5 is a diagram illustrating an example of the calculated search range. As shown in the figure, the search range calculation unit 17 sets a part of the video captured by the camera 3 as the search range. More specifically, the search range calculation unit 17 includes a vertical direction search range calculation unit 17a and a horizontal direction search range calculation unit 17b. Then, the vertical direction search range calculation unit 17a calculates the upper search omitted range Pvt and the lower search omitted range Pvb as ranges in which the search is not performed in the video captured by the camera 3, and the horizontal direction search range calculation is performed. The unit 17b calculates the left search omitted range Phl and the right search omitted range Phr.

結果として、カメラ3の解像度を垂直方向I画素および水平方向K画素とすると、垂直方向I画素のうち上側のPvt画素および下側のPvb画素、ならびに、水平方向K画素のうち左側のPhl画素および右側のPhr画素を除いた部分が探索範囲となる。   As a result, assuming that the resolution of the camera 3 is a vertical I pixel and a horizontal K pixel, the upper Pvt pixel and the lower Pvb pixel in the vertical I pixel, and the left Phl pixel in the horizontal K pixel and A portion excluding the right Phr pixel is a search range.

図6は、垂直方向の探索範囲の算出手法を説明する図である。同図において、各パラメータを以下のように定義する。
α:カメラ3の垂直方向の設置角度(すなわち水平方向に対する仰角)
β:カメラ3の垂直方向の画角
γ:想定される液晶パネル1の垂直方向の視聴角度
A:液晶パネル1の中心とカメラ3までの距離
B:視聴距離
FIG. 6 is a diagram illustrating a method for calculating a search range in the vertical direction. In the figure, each parameter is defined as follows.
α: Installation angle of camera 3 in the vertical direction (that is, elevation angle with respect to the horizontal direction)
β: Vertical angle of view of the camera 3 γ: Expected viewing angle of the liquid crystal panel 1 in the vertical direction A: Distance between the center of the liquid crystal panel 1 and the camera 3 B: Viewing distance

上記のパラメータのうち、α,β,γおよびAは予め定めた定数である。そして、Bは、視聴者の位置が視聴者位置推定部14により推定される前は予め定めた想定される視聴距離(例えば、液晶パネル1の垂直方向の長さの3倍など)とし、推定された後は推定された位置に応じた距離、例えば、視聴者のZ軸上の位置を用いることができる。   Of the above parameters, α, β, γ and A are predetermined constants. B is an estimated viewing distance (for example, three times the length of the liquid crystal panel 1 in the vertical direction) before the viewer position is estimated by the viewer position estimation unit 14 and is estimated. Then, a distance corresponding to the estimated position, for example, a position on the viewer's Z-axis can be used.

図6により、カメラ3により撮影される垂直方向の長さLvは下記(1)式で表される。
Lv = B * tan(β/2 + α) + B * tan(β/2 - α) ... (1)
According to FIG. 6, the length Lv in the vertical direction photographed by the camera 3 is expressed by the following equation (1).
Lv = B * tan (β / 2 + α) + B * tan (β / 2-α) ... (1)

視聴角度γを考慮すると、視聴者がいる可能性がある範囲は、同図の存在範囲Ev内に限られる。言い換えると、存在範囲Evより上側は、天井や視聴者の伸長より高い位置が撮影されている可能性が高く、探索を省略可能な範囲である。また、存在範囲Evより下側は、床や視聴者の足元が撮影されている可能性が高く、やはり探索を省略可能な範囲である。上側の探索省略範囲の長さLvtおよび下側の探索省略範囲の長さLvbはそれぞれ下記(2),(3)式で表される。
Lvt = |B * tan(β/2 + α) - {2 * B * tan(γ/2) - tan(γ/2) * (B - A / tan(γ/2))| ... (2)
Lvb = |B * tan(β/2 - α) - tan(γ/2) * (B - A / tan(γ/2)| ... (3)
In consideration of the viewing angle γ, the range in which the viewer may be present is limited to the existence range Ev in FIG. In other words, the upper side of the existence range Ev is a range in which a position higher than the ceiling and the extension of the viewer is likely to be shot, and the search can be omitted. In addition, the lower side of the existence range Ev is a range in which the floor and the feet of the viewer are likely to be photographed, and the search can be omitted. The length Lvt of the upper search omission range and the length Lvb of the lower search omission range are expressed by the following equations (2) and (3), respectively.
Lvt = | B * tan (β / 2 + α)-(2 * B * tan (γ / 2)-tan (γ / 2) * (B-A / tan (γ / 2)) | ... ( 2)
Lvb = | B * tan (β / 2-α)-tan (γ / 2) * (B-A / tan (γ / 2) | ... (3)

よって、上側の探索省略範囲の画素数Pvtおよび下側の探索省略範囲の画素数Pvbは、それぞれ下記(4),(5)式に上記(1)〜(3)式を代入したものである。
Pvt = I * Lvt / Lv ... (4)
Pvb = I * Lvb / Lv ... (5)
Therefore, the number of pixels Pvt in the upper search omission range and the number of pixels Pvb in the lower search omission range are obtained by substituting the above equations (1) to (3) into the following equations (4) and (5), respectively. .
Pvt = I * Lvt / Lv ... (4)
Pvb = I * Lvb / Lv ... (5)

図7は、水平方向の探索範囲の算出手法を説明する図である。同図において、各パラメータを以下のように定義する。
ζ:カメラ3の水平方向の設置角度
θ:カメラ3の水平方向の画角
δ:想定される液晶パネル1の水平方向の視聴角度
FIG. 7 is a diagram for explaining a method of calculating a search range in the horizontal direction. In the figure, each parameter is defined as follows.
ζ: Horizontal installation angle of the camera 3 θ: Horizontal field angle of the camera 3 δ: Expected viewing angle of the liquid crystal panel 1 in the horizontal direction

上記のパラメータζ,θおよびδは予め定めた定数である、
図7により、カメラ3により撮影される水平方向の長さLhは下記(6)式で表される。
Lh = 2 * B * tan(θ/2) ... (6)
The above parameters ζ, θ and δ are predetermined constants.
According to FIG. 7, the horizontal length Lh photographed by the camera 3 is expressed by the following equation (6).
Lh = 2 * B * tan (θ / 2) ... (6)

視聴角度δを考慮すると、視聴者がいる可能性がある範囲は、同図の存在範囲Eh内に限られる。言い換えると、存在範囲Ehより左側および右側が探索を省略可能な範囲である。左側の探索省略範囲の長さLhlおよび右側の探索省略範囲の長さLhrはそれぞれ下記(7),(8)式で表される。
Lhl = |B * tan(θ/2) - B * tan(δ/2 + ζ)| ... (7)
Lhr = |B * tan(θ/2) - B * tan(δ/2 - ζ)| ... (8)
In consideration of the viewing angle δ, the range in which the viewer may be present is limited to the existence range Eh in FIG. In other words, the left and right sides of the existence range Eh are ranges in which the search can be omitted. The length Lhl of the search omitted range on the left side and the length Lhr of the search omitted range on the right side are expressed by the following equations (7) and (8), respectively.
Lhl = | B * tan (θ / 2)-B * tan (δ / 2 + ζ) | ... (7)
Lhr = | B * tan (θ / 2)-B * tan (δ / 2-ζ) | ... (8)

よって、左側の探索省略範囲の画素数Phlおよび右側の探索省略範囲の画素数Phrは、それぞれ下記(9),(10)式で表される。
Phl = K * Lhl / Lh = K * |tan(θ/2) - tan(δ/2 + ζ)| / 2 * tan(θ/2) ... (9)
Phr = K * Lhr / Lh = K * |tan(θ/2) - tan(δ/2 - ζ)| / 2 * tan(θ/2) ... (10)
Therefore, the number of pixels Phl in the left search omitted range and the number of pixels Phr in the right search omitted range are expressed by the following equations (9) and (10), respectively.
Phl = K * Lhl / Lh = K * | tan (θ / 2)-tan (δ / 2 + ζ) | / 2 * tan (θ / 2) ... (9)
Phr = K * Lhr / Lh = K * | tan (θ / 2)-tan (δ / 2-ζ) | / 2 * tan (θ / 2) ... (10)

以上(4),(5),(9)および(10)式により、図5の探索省略範囲の画素数Pvt,Pvb,Phl,Phrが得られる。   From the above expressions (4), (5), (9), and (10), the number of pixels Pvt, Pvb, Phl, and Phr in the search omitted range in FIG. 5 can be obtained.

図8は、第1の実施形態に係るコントローラ10の処理動作の一例を示すフローチャートである。   FIG. 8 is a flowchart illustrating an example of a processing operation of the controller 10 according to the first embodiment.

カメラ3で撮影された映像がコントローラ10に入力されると(ステップS1のYES)、探索範囲算出部17は視聴者探索部13の探索範囲を算出する。より具体的には、垂直方向探索範囲算出部17aは、上記(4),(5)式に基づいて、垂直方向の探索省略範囲Pvt,Pvbを算出する(ステップS2)。そして、水平方向探索範囲算出部17bは、上記(9),(10)式に基づいて、水平方向の探索省略範囲Phl,Phrを算出する(ステップS3)。なお、初めは視聴者の位置が推定されていないため、視聴距離Bとして予め定めた値を用いればよい。   When the video imaged by the camera 3 is input to the controller 10 (YES in step S1), the search range calculation unit 17 calculates the search range of the viewer search unit 13. More specifically, the vertical direction search range calculation unit 17a calculates the vertical search omitted ranges Pvt and Pvb based on the equations (4) and (5) (step S2). Then, the horizontal direction search range calculation unit 17b calculates the horizontal direction search omitted ranges Phl and Phr based on the above formulas (9) and (10) (step S3). Since the viewer's position is not estimated at first, a predetermined value may be used as the viewing distance B.

続いて、視聴者探索部13は、算出された探索省略範囲に応じた探索範囲内で顔検出を行うことにより、視聴者を検出する(ステップS4)。視聴者が検出されると(ステップS5のYES)、視聴者位置推定部14は実空間における視聴者の位置を推定する(ステップS6)。   Subsequently, the viewer search unit 13 detects the viewer by performing face detection within the search range corresponding to the calculated search omission range (step S4). When the viewer is detected (YES in step S5), the viewer position estimating unit 14 estimates the position of the viewer in the real space (step S6).

ここで、推定された視聴者の位置と液晶パネル1との距離は、視聴距離Bとして探索範囲算出部17に入力される。そして、その後の探索範囲算出部17の処理(ステップS2,S3)に用いられる。   Here, the estimated distance between the viewer position and the liquid crystal panel 1 is input to the search range calculation unit 17 as a viewing distance B. And it is used for the process (step S2, S3) of the search range calculation part 17 after that.

一方、視域パラメータ算出部15は、推定された視聴者の位置に視域が設定されるよう、視域パラメータを算出する(ステップS7)。そして、画像調整部16は視差画像変換部12により生成された視差画像が、推定された視聴者の位置から立体的に見えるよう、視差画像を調整する(ステップS8)。調整された視差画像は液晶パネル1に表示される。そして、視聴者は、レンチキュラレンズ2を介して液晶パネル1に表示される視差画像を見ることで、立体視できる。   On the other hand, the viewing zone parameter calculation unit 15 calculates viewing zone parameters so that the viewing zone is set at the estimated viewer position (step S7). Then, the image adjustment unit 16 adjusts the parallax image so that the parallax image generated by the parallax image conversion unit 12 looks stereoscopically from the estimated viewer position (step S8). The adjusted parallax image is displayed on the liquid crystal panel 1. The viewer can view stereoscopically by viewing the parallax image displayed on the liquid crystal panel 1 via the lenticular lens 2.

以上を最終フレームまで行う(ステップS9)。なお、カメラ3からコントローラ10へ映像が入力されない場合(ステップS1のNO)、映像が入力されるまで視聴者検出処理は行われない。   The above is performed up to the final frame (step S9). When no video is input from the camera 3 to the controller 10 (NO in step S1), the viewer detection process is not performed until the video is input.

このように、第1の実施形態では、探索範囲算出部17が、視聴距離Bに基づいて、カメラ3で撮影された映像の一部を探索範囲に設定する。よって、カメラ3で撮影された映像の全体を探索範囲とするのと比べ、視聴者探索の処理量を軽減できる。   As described above, in the first embodiment, the search range calculation unit 17 sets a part of the video captured by the camera 3 as the search range based on the viewing distance B. Therefore, the processing amount of the viewer search can be reduced as compared with the case where the entire video captured by the camera 3 is set as the search range.

(第2の実施形態)
上述した第1の実施形態は視聴距離Bに基づいて探索範囲を定めたが、以下に説明する第2の実施形態ではさらに視域の位置も考慮して探索範囲を定めるものである。
(Second Embodiment)
In the first embodiment described above, the search range is determined based on the viewing distance B, but in the second embodiment described below, the search range is determined in consideration of the position of the viewing zone.

図9は、第2の実施形態に係る映像表示装置100の概略構成を示すブロック図である。図9では、図2と共通する構成部分には同一の符号を付しており、以下では相違点を中心に説明する。   FIG. 9 is a block diagram illustrating a schematic configuration of the video display apparatus 100 according to the second embodiment. In FIG. 9, the same components as those in FIG. 2 are denoted by the same reference numerals, and different points will be mainly described below.

図9のコントローラ10’はさらに視域算出部18を有する。視域算出部18は視域パラメータ算出部15により算出された視域パラメータに応じて設定される視域の位置を算出する。視域は、視域パラメータの他、液晶パネル1とレンチキュラレンズ2との距離等、映像表示装置100の設計にも依存する。視域パラメータ算出部15は、視聴者の位置に視域が設定されるよう視域パラメータを算出するが、実際に設定される視域は視聴者の位置の他にも複数ある。よって、視域算出部18は複数の視域のそれぞれの位置を算出する。算出される視域の一例として、図10に示すような複数の四角形が得られる。   The controller 10 ′ in FIG. 9 further includes a viewing area calculation unit 18. The viewing zone calculation unit 18 calculates the position of the viewing zone set according to the viewing zone parameter calculated by the viewing zone parameter calculation unit 15. The viewing zone depends on the design of the video display device 100 such as the distance between the liquid crystal panel 1 and the lenticular lens 2 in addition to the viewing zone parameter. The viewing zone parameter calculation unit 15 calculates viewing zone parameters so that the viewing zone is set at the viewer's position, but there are a plurality of viewing zones that are actually set in addition to the viewer's location. Therefore, the viewing area calculation unit 18 calculates the position of each of the plurality of viewing areas. As an example of the calculated viewing zone, a plurality of rectangles as shown in FIG. 10 are obtained.

そして、水平方向探索範囲算出部17bは、視域が算出されるまでは、上記(9),(10)式に基づいて、水平方向の探索範囲を定める。その後視域が算出されると、図7における固定値である視聴角度δに代えて、予め定めた数の視域が含まれる角度δ’を用いる。図10では、3つの視域が含まれるような角度δ’が用いられる例を示している。この角度δ’は、算出された視域の位置に基づいて、水平方向探索範囲算出部17bにより算出される。そして、水平方向探索範囲算出部17bは、上記(9),(10)式における視聴角度δを視域に応じた角度δ’に置き換えた数式に基づいて、水平方向の探索範囲を定める。   Then, the horizontal direction search range calculation unit 17b determines the horizontal direction search range based on the equations (9) and (10) until the viewing zone is calculated. When the viewing zone is calculated thereafter, an angle δ ′ including a predetermined number of viewing zones is used instead of the viewing angle δ which is a fixed value in FIG. FIG. 10 shows an example in which an angle δ ′ that includes three viewing zones is used. The angle δ ′ is calculated by the horizontal direction search range calculation unit 17b based on the calculated position of the viewing zone. Then, the horizontal direction search range calculation unit 17b determines the horizontal direction search range based on a mathematical formula in which the viewing angle δ in the above formulas (9) and (10) is replaced with an angle δ ′ according to the viewing zone.

図11は、第2の実施形態に係るコントローラ10’の処理動作の一例を示すフローチャートである。図8に対する主な相違点は、視域パラメータが算出された後に、視域算出部18が視域を算出する点である(ステップS11)。すなわち、算出された視域の位置は探索範囲算出部17に入力され、その後の水平方向探索範囲算出部17bの処理(ステップS3)に用いられる。   FIG. 11 is a flowchart illustrating an example of a processing operation of the controller 10 ′ according to the second embodiment. The main difference from FIG. 8 is that the viewing zone calculation unit 18 calculates the viewing zone after the viewing zone parameter is calculated (step S11). In other words, the calculated position of the viewing zone is input to the search range calculation unit 17 and used for the subsequent processing (step S3) of the horizontal direction search range calculation unit 17b.

このように、第2の実施形態では、予め定めた数の視域が含まれるよう、探索範囲を定める。よって、さらに探索範囲を狭くすることができ、視聴者探索の処理量を軽減できる。   Thus, in the second embodiment, the search range is determined so as to include a predetermined number of viewing zones. Therefore, the search range can be further narrowed, and the processing amount for viewer search can be reduced.

(第3の実施形態)
以下に説明する実施形態は、フレーム毎に探索範囲を変えることで、さらに視聴者探索の処理量を軽減するものである。
(Third embodiment)
The embodiment described below further reduces the processing amount of the viewer search by changing the search range for each frame.

本実施形態におけるコントローラは、図2のコントローラ10または図9のコントローラ10’を適用できるため、図示を省略する。   Since the controller in this embodiment can be the controller 10 in FIG. 2 or the controller 10 ′ in FIG. 9, the illustration is omitted.

図12は、第3の実施形態における視聴者探索部13の処理動作を説明する図である。図12(a)は、コントローラ10(または10’)の探索範囲算出部17により算出された探索範囲13aを示している。視聴者探索部13は算出された探索範囲13aの全体ではなく、フレーム毎に、その一部を探索する。同図の例では、視聴者探索部13は、カメラ3から入力される映像の第3N(Nは正の整数)フレームについては、探索範囲13aのうちの左側の領域13bを探索する(図12(b))。また、視聴者探索部13は、カメラ3から入力される映像の第(3N+1)フレームについては、探索範囲13aのうちの中央の領域13cを探索する(図12(c))。さらに、視聴者探索部13は、カメラ3から入力される映像の第(3N+2)フレームについては、探索範囲13aのうちの右側の領域13dを探索する(図12(d))。   FIG. 12 is a diagram illustrating the processing operation of the viewer search unit 13 in the third embodiment. FIG. 12A shows the search range 13a calculated by the search range calculation unit 17 of the controller 10 (or 10 '). The viewer search unit 13 searches a part of the calculated search range 13a for each frame, not the entire search range 13a. In the example shown in the figure, the viewer search unit 13 searches the left region 13b in the search range 13a for the third N (N is a positive integer) frame of the video input from the camera 3 (FIG. 12). (B)). In addition, the viewer search unit 13 searches the center region 13c in the search range 13a for the (3N + 1) th frame of the video input from the camera 3 (FIG. 12C). Furthermore, for the (3N + 2) th frame of the video input from the camera 3, the viewer search unit 13 searches the right region 13d in the search range 13a (FIG. 12 (d)).

このように探索を行うことで、1フレームあたりの探索範囲を狭くでき、視聴者探索の処理量を軽減できる。また、フレームレートが30fps(frame per second)等、視聴者の移動に対して十分に早い場合、数フレームかけて探索範囲全体を探索しても、視聴者の検出精度はそれほど低下しない。   By performing the search in this way, the search range per frame can be narrowed, and the processing amount of the viewer search can be reduced. In addition, when the frame rate is sufficiently high with respect to the movement of the viewer, such as 30 fps (frame per second), even if the entire search range is searched over several frames, the detection accuracy of the viewer does not decrease so much.

ここで、各領域の境界に視聴者がいることもあるので、各領域は互いにオーバーラップしているのが望ましい。例えば、図12(b)における領域13bの右側の一部分は、図12(c)における領域13cの左側の一部分とオーバーラップしている。   Here, since there may be a viewer at the boundary between the regions, it is desirable that the regions overlap each other. For example, a part on the right side of the region 13b in FIG. 12B overlaps a part on the left side of the region 13c in FIG.

なお、必ずしも領域13b〜13dを等しい回数だけ探索しなくてもよい。例えば、視聴者は液晶パネル1の正面にいる可能性が高いため、領域13cの探索頻度を高く、領域13b,13dの探索頻度を相対的に低くしてもよい。もちろん、探索範囲13を2つの領域に分割してもよいし、4つの領域に分割しても構わない。   It is not always necessary to search the areas 13b to 13d an equal number of times. For example, since the viewer is likely to be in front of the liquid crystal panel 1, the search frequency of the region 13c may be high and the search frequency of the regions 13b and 13d may be relatively low. Of course, the search range 13 may be divided into two regions or may be divided into four regions.

このように、第3の実施形態は、1フレームにおいては、探索範囲の一部を探索する。よって、視聴者探索の処理量をさらに軽減できる。   Thus, the third embodiment searches for a part of the search range in one frame. Therefore, the processing amount of viewer search can be further reduced.

以上に説明した第1〜第3の実施形態の他、種々の変形例が考えられる。例えば、メモリおよび/またはCPUの負荷率(以下、単に負荷率という)を基に探索範囲を定めてもよい。例えば、負荷率が所定値以下であればカメラ3で撮影された映像全体で視聴者を探索するとともに、視聴者の位置を推定しておく。そして、負荷率が所定値を超えると、推定された視聴者の位置に応じた視聴距離に基づいて映像の一部を探索範囲にしてもよい。   In addition to the first to third embodiments described above, various modifications can be considered. For example, the search range may be determined based on the load factor of the memory and / or CPU (hereinafter simply referred to as the load factor). For example, if the load factor is equal to or less than a predetermined value, the viewer is searched for in the entire video shot by the camera 3 and the position of the viewer is estimated. When the load factor exceeds a predetermined value, a part of the video may be set as a search range based on the viewing distance corresponding to the estimated viewer position.

あるいは、Nフレームに一度はカメラ3で撮影された映像全体で視聴者を探索するとともに、視聴者の位置を推定しておく。そして、他のフレームでは、推定された視聴者の位置に応じた視聴距離に基づいて映像の一部を探索範囲にしてもよい。   Alternatively, the viewer is searched for the entire video photographed by the camera 3 once every N frames, and the position of the viewer is estimated. In another frame, a part of the video may be set as a search range based on the viewing distance corresponding to the estimated viewer position.

また、探索範囲算出部17は垂直方向探索範囲算出部17aおよび水平方向探索範囲算出部17bのいずれか一方のみを有していてもよい。   Further, the search range calculation unit 17 may include only one of the vertical direction search range calculation unit 17a and the horizontal direction search range calculation unit 17b.

なお、各実施形態ではレンチキュラレンズ2を用い、視差画像をずらすことによって視域を制御する例を示したが、他の手法で視域を制御してもよい。例えば、レンチキュラレンズ2に代えてパララックスバリアを開口制御部2’として設けてもよい。図13は、図2の変形例である映像表示装置100’の概略構成を示すブロック図である。同図に示すように、映像処理装置100’のコントローラ10’は、画像調整部16の代わりに、視域制御部16’を備える。   In each embodiment, the lenticular lens 2 is used and the viewing zone is controlled by shifting the parallax image. However, the viewing zone may be controlled by other methods. For example, instead of the lenticular lens 2, a parallax barrier may be provided as the opening control unit 2 '. FIG. 13 is a block diagram showing a schematic configuration of a video display device 100 ′ that is a modification of FIG. 2. As shown in the figure, the controller 10 ′ of the video processing apparatus 100 ′ includes a viewing zone control unit 16 ′ instead of the image adjustment unit 16.

この視域制御部16’は、視域パラメータ算出部15により算出された視域パラメータに応じて開口制御部2’を制御する。本変形例の場合、制御パラメータは、液晶パネル1と開口制御部2’との距離、液晶パネル1と開口制御部2’との水平方向のずれ量などである。   The viewing zone control unit 16 ′ controls the aperture control unit 2 ′ according to the viewing zone parameter calculated by the viewing zone parameter calculation unit 15. In the case of this modification, the control parameters are a distance between the liquid crystal panel 1 and the opening control unit 2 ', a horizontal shift amount between the liquid crystal panel 1 and the opening control unit 2', and the like.

本変形例では、液晶パネル1に表示された視差画像の出力方向を、開口制御部2’で制御することによって、視域が制御される。このように、視差画像をずらす処理を行わず、視域制御部16’により開口制御部2’を制御してもよい。   In the present modification, the viewing zone is controlled by controlling the output direction of the parallax image displayed on the liquid crystal panel 1 with the aperture control unit 2 ′. As described above, the aperture control unit 2 ′ may be controlled by the viewing zone control unit 16 ′ without performing the process of shifting the parallax image.

上述した実施形態で説明した映像表示システムの少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、映像表示システムの少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。   At least a part of the video display system described in the above-described embodiment may be configured by hardware or software. When configured by software, a program for realizing at least a part of the functions of the video display system may be stored in a recording medium such as a flexible disk or a CD-ROM, and read and executed by a computer. The recording medium is not limited to a removable medium such as a magnetic disk or an optical disk, but may be a fixed recording medium such as a hard disk device or a memory.

また、映像表示システムの少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。   Further, a program for realizing at least a part of the functions of the video display system may be distributed via a communication line (including wireless communication) such as the Internet. Further, the program may be distributed in a state where the program is encrypted, modulated or compressed, and stored in a recording medium via a wired line such as the Internet or a wireless line.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 液晶パネル
2 レンチキュラレンズ
2’ 開口部制御部
3 カメラ
4 受光部
10 コントローラ
11 チューナデコーダ
12 視差画像変換部
13 視聴者探索部
14 視聴者位置推定部
15 視域パラメータ算出部
16 画像調整部
16’ 視域制御部
17 探索範囲算出部
17a 垂直方向探索範囲算出部
17b 水平方向探索範囲算出部
18 視域算出部
DESCRIPTION OF SYMBOLS 1 Liquid crystal panel 2 Lenticular lens 2 'Aperture control part 3 Camera 4 Light-receiving part 10 Controller 11 Tuner decoder 12 Parallax image conversion part 13 Viewer search part 14 Viewer position estimation part 15 Viewing area parameter calculation part 16 Image adjustment part 16' Viewing zone control unit 17 Search range calculation unit 17a Vertical direction search range calculation unit 17b Horizontal direction search range calculation unit 18 Viewing zone calculation unit

Claims (12)

顔辞書を用いて視聴者の顔を検出することで、カメラで撮影された映像の一部である探索範囲内から、視聴者を探索する視聴者探索部と、
前記検出された視聴者の顔に基づいて裸眼立体表示用の表示部と前記視聴者との距離である視聴距離を含む前記視聴者の実空間での位置情報を推定する視聴者位置推定部と、
前記推定された視聴距離に基づいて前記探索範囲を設定する探索範囲算出部と、
前記推定された視聴者の位置情報基づいて視域を設定する視域制御部と、を備える映像処理装置。
A viewer search unit that searches for a viewer from within a search range that is a part of a video captured by the camera by detecting the face of the viewer using a face dictionary;
Based on the face of the detected viewer, viewer position estimation unit for estimating the position information in the real space of the viewer including a viewing distance which is a distance between the display section and the viewer for autostereoscopic display When,
A search range calculator configured to set the search range based on the estimated viewing distance;
And a viewing zone control unit that sets a viewing zone based on the estimated position information of the viewer.
前記視域制御部は、
前記推定された視聴者の位置に視域を設定するための視域パラメータを算出する視域パラメータ算出部と、
前記視域パラメータに基づいて設定される複数の視域のそれぞれの位置を算出する視域算出部と、を備え、
前記探索範囲算出部は、前記複数の視域のうち予め定めた視域が含まれるよう、前記探索範囲を算出する、請求項1に記載の映像処理装置。
The viewing zone control unit
A viewing zone parameter calculating unit that calculates a viewing zone parameter for setting a viewing zone at the estimated viewer position;
A viewing zone calculation unit that calculates each position of a plurality of viewing zones set based on the viewing zone parameters,
The video processing apparatus according to claim 1, wherein the search range calculation unit calculates the search range so that a predetermined viewing area is included among the plurality of viewing areas.
前記視聴者の顔を検出する際、
前記カメラで撮影された映像のうちの第1のフレームについては、前記探索範囲の一部である第1の領域内で視聴者を探索し、
前記カメラで撮影された映像のうちの第2のフレームについては、前記探索範囲の一部である第2の領域内で視聴者を探索し、
前記第2の領域の一部は前記第1の領域の一部とオーバーラップしている、請求項1に記載の映像処理装置。
When detecting the viewer's face,
For the first frame of the video captured by the camera, search for viewers in a first area that is part of the search range;
For the second frame of the video captured by the camera, search for viewers in a second region that is part of the search range,
The video processing apparatus according to claim 1, wherein a part of the second area overlaps a part of the first area.
前記探索範囲算出部は、
前記カメラで撮影された映像の垂直方向の探索範囲を算出する垂直方向探索範囲算出部と、
前記カメラで撮影された映像の水平方向の探索範囲を算出する水平方向探索範囲算出部と、の少なくとも一方を有する、請求項1に記載の映像処理装置。
The search range calculation unit
A vertical direction search range calculation unit for calculating a vertical direction search range of video captured by the camera;
The video processing apparatus according to claim 1, further comprising at least one of a horizontal search range calculation unit that calculates a horizontal search range of a video shot by the camera.
前記垂直方向探索範囲算出部は、前記カメラで撮影された映像の上側Pvt画素および下側Pvb画素を除いた部分を前記探索範囲とする、請求項4に記載の映像処理装置
ここで、
Pvt = I * Lvt / Lv ...(1)
Pvb = I * Lvb / Lv ...(2)
Lvt = |B * tan(β/2 + α) - {2 * B * tan(γ/2) - tan(γ/2) * (B - A / tan(γ/2))| ...(3)
Lvb = |B * tan(β/2 - α) - tan(γ/2) * (B - A / tan(γ/2)| ...(4)
Lv = B * tan(β/2 + α) + B * tan(β/2 - α) ...(5)
Iは前記カメラの垂直方向の画素数、αは前記カメラの垂直方向の設置角度、βは前記カメラ3の垂直方向の画角、γは想定される表示部の垂直方向の視聴角度、Bは前記視聴距離。
The video processing device according to claim 4, wherein the vertical search range calculation unit sets the search range as a portion excluding the upper Pvt pixel and the lower Pvb pixel of the video captured by the camera.
Pvt = I * Lvt / Lv. . . (1)
Pvb = I * Lvb / Lv. . . (2)
Lvt = | B * tan (β / 2 + α)-{2 * B * tan (γ / 2)-tan (γ / 2) * (B-A / tan (γ / 2)) | . . (3)
Lvb = | B * tan (β / 2-α)-tan (γ / 2) * (B-A / tan (γ / 2) | ... (4)
Lv = B * tan (β / 2 + α) + B * tan (β / 2-α). . . (5)
I is the number of pixels in the vertical direction of the camera, α is the installation angle in the vertical direction of the camera, β is the angle of view in the vertical direction of the camera 3, γ is the assumed viewing angle in the vertical direction of the display unit, and B is The viewing distance.
前記水平方向探索範囲算出部は、前記カメラで撮影された映像の左側Phl画素および右側Phr画素を除いた部分を前記探索範囲とする、請求項4に記載の映像処理装置
ここで、
Phl = K * |tan(θ/2) - tan(δ/2 + ζ)| / 2 * tan(θ/2) ...(6)
Phr = K * |tan(θ/2) - tan(δ/2 - ζ)| / 2 * tan(θ/2) ...(7)
Kは前記カメラの水平方向の画素数、ζは前記カメラの水平方向の設置角度、θはカメラ3の水平方向の画角、δは想定される表示部の水平方向の視聴角度。
The video processing device according to claim 4, wherein the horizontal direction search range calculation unit sets the search range as a portion excluding the left side Phl pixel and the right side Phr pixel of the video imaged by the camera.
Phl = K * | tan (θ / 2)-tan (δ / 2 + ζ) | / 2 * tan (θ / 2). . . (6)
Phr = K * | tan (θ / 2)-tan (δ / 2-ζ) | / 2 * tan (θ / 2). . . (7)
K is the number of pixels in the horizontal direction of the camera, ζ is the horizontal installation angle of the camera, θ is the horizontal angle of view of the camera 3, and δ is the assumed horizontal viewing angle of the display unit.
顔辞書を用いて視聴者の顔を検出することで、カメラで撮影された映像の一部である探索範囲内から、視聴者を探索するステップと、
前記検出された視聴者の顔に基づいて裸眼立体表示用の表示部と前記視聴者との距離である視聴距離を含む前記視聴者の実空間での位置情報を推定するステップと、
前記推定された視聴距離に基づいて前記探索範囲を設定するステップと、
前記推定された視聴者の位置情報基づいて視域を設定するステップと、を備える映像処理方法。
Searching for a viewer from within a search range that is part of a video captured by a camera by detecting the viewer's face using a face dictionary;
A step of based on said face of the detected audience estimates the position information of the real space of the viewer including a viewing distance is the distance between the viewer and the display unit for autostereoscopic display,
Setting the search range based on the estimated viewing distance;
And a step of setting a viewing zone based on the estimated position information of the viewer.
前記視域を設定するステップは、
前記推定された視聴者の位置に視域を設定するための視域パラメータを算出するステップと、
前記視域パラメータに基づいて設定される複数の視域のそれぞれの位置を算出するステップと、を備え、
前記探索範囲に設定するステップでは、前記複数の視域のうち予め定めた視域が含まれるよう、前記探索範囲を算出する、請求項7に記載の映像処理方法。
The step of setting the viewing zone includes:
Calculating a viewing zone parameter for setting a viewing zone at the estimated viewer position;
Calculating each position of a plurality of viewing zones set based on the viewing zone parameters,
The video processing method according to claim 7, wherein in the step of setting the search range, the search range is calculated so that a predetermined viewing area is included among the plurality of viewing areas.
前記視聴者の顔を検出する際、
前記カメラで撮影された映像のうちの第1のフレームについては、前記探索範囲の一部である第1の領域内で視聴者を探索し、
前記カメラで撮影された映像のうちの第2のフレームについては、前記探索範囲の一部である第2の領域内で視聴者を探索し、
前記第2の領域の一部は前記第1の領域の一部とオーバーラップしている、請求項7に記載の映像処理方法。
When detecting the viewer's face,
For the first frame of the video captured by the camera, search for viewers in a first area that is part of the search range;
For the second frame of the video captured by the camera, search for viewers in a second region that is part of the search range,
The video processing method according to claim 7, wherein a part of the second area overlaps a part of the first area.
前記探索範囲に設定するステップは、
前記カメラで撮影された映像の垂直方向の探索範囲を算出する垂直方向探索範囲算出ステップと、
前記カメラで撮影された映像の水平方向の探索範囲を算出する水平方向探索範囲算出ステップと、の少なくとも一方を有する、請求項7に記載の映像処理方法。
The step of setting the search range includes
A vertical search range calculation step of calculating a vertical search range of the video imaged by the camera;
The video processing method according to claim 7, further comprising at least one of a horizontal search range calculation step of calculating a horizontal search range of a video shot by the camera.
前記垂直方向探索範囲算出ステップでは、前記カメラで撮影された映像の上側Pvt画素および下側Pvb画素を除いた部分を前記探索範囲とする、請求項10に記載の映像処理方法
ここで、
Pvt = I * Lvt / Lv ...(1)
Pvb = I * Lvb / Lv ...(2)
Lvt = |B * tan(β/2 + α) - {2 * B * tan(γ/2) - tan(γ/2) * (B - A / tan(γ/2))| ...(3)
Lvb = |B * tan(β/2 - α) - tan(γ/2) * (B - A / tan(γ/2)| ...(4)
Lv = B * tan(β/2 + α) + B * tan(β/2 - α) ...(5)
Iは前記カメラの垂直方向の画素数、αは前記カメラの垂直方向の設置角度、βは前記カメラ3の垂直方向の画角、γは想定される表示部の垂直方向の視聴角度、Bは前記視聴距離。
The video processing method according to claim 10, wherein, in the vertical direction search range calculation step, a portion excluding the upper Pvt pixel and the lower Pvb pixel of the video shot by the camera is set as the search range.
Pvt = I * Lvt / Lv. . . (1)
Pvb = I * Lvb / Lv. . . (2)
Lvt = | B * tan (β / 2 + α)-{2 * B * tan (γ / 2)-tan (γ / 2) * (B-A / tan (γ / 2)) | . . (3)
Lvb = | B * tan (β / 2-α)-tan (γ / 2) * (B-A / tan (γ / 2) | ... (4)
Lv = B * tan (β / 2 + α) + B * tan (β / 2-α). . . (5)
I is the number of pixels in the vertical direction of the camera, α is the installation angle in the vertical direction of the camera, β is the angle of view in the vertical direction of the camera 3, γ is the assumed viewing angle in the vertical direction of the display unit, and B is The viewing distance.
前記水平方向探索範囲算出ステップでは、前記カメラで撮影された映像の左側Phl画素および右側Phr画素を除いた部分を前記探索範囲とする、請求項10に記載の映像処理方法
ここで、
Phl = K * |tan(θ/2) - tan(δ/2 + ζ)| / 2 * tan(θ/2) ...(6)
Phr = K * |tan(θ/2) - tan(δ/2 - ζ)| / 2 * tan(θ/2) ...(7)
Kは前記カメラの水平方向の画素数、ζは前記カメラの水平方向の設置角度、θはカメラ3の水平方向の画角、δは想定される表示部の水平方向の視聴角度。
The video processing method according to claim 10, wherein, in the horizontal direction search range calculation step, a portion excluding the left side Phl pixel and the right side Phr pixel of the video imaged by the camera is set as the search range.
Phl = K * | tan (θ / 2)-tan (δ / 2 + ζ) | / 2 * tan (θ / 2). . . (6)
Phr = K * | tan (θ / 2)-tan (δ / 2-ζ) | / 2 * tan (θ / 2). . . (7)
K is the number of pixels in the horizontal direction of the camera, ζ is the horizontal installation angle of the camera, θ is the horizontal angle of view of the camera 3, and δ is the assumed horizontal viewing angle of the display unit.
JP2012191702A 2012-08-31 2012-08-31 Video processing apparatus and video processing method Expired - Fee Related JP5395934B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012191702A JP5395934B1 (en) 2012-08-31 2012-08-31 Video processing apparatus and video processing method
CN201310026387.3A CN103686122A (en) 2012-08-31 2013-01-24 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012191702A JP5395934B1 (en) 2012-08-31 2012-08-31 Video processing apparatus and video processing method

Publications (2)

Publication Number Publication Date
JP5395934B1 true JP5395934B1 (en) 2014-01-22
JP2014049951A JP2014049951A (en) 2014-03-17

Family

ID=50112326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012191702A Expired - Fee Related JP5395934B1 (en) 2012-08-31 2012-08-31 Video processing apparatus and video processing method

Country Status (2)

Country Link
JP (1) JP5395934B1 (en)
CN (1) CN103686122A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105263014A (en) * 2015-10-12 2016-01-20 四川长虹电器股份有限公司 Implementation method of naked eye 3D UI (user interface) controls

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100677569B1 (en) * 2004-12-13 2007-02-02 삼성전자주식회사 3D image display apparatus
US7843449B2 (en) * 2006-09-20 2010-11-30 Apple Inc. Three-dimensional display system
JP2008085503A (en) * 2006-09-26 2008-04-10 Toshiba Corp Three-dimensional image processing apparatus, method and program, and three-dimensional image display device
KR20080040931A (en) * 2006-11-06 2008-05-09 삼성전자주식회사 Display apparatus and control method thereof
JP4793451B2 (en) * 2009-01-21 2011-10-12 ソニー株式会社 Signal processing apparatus, image display apparatus, signal processing method, and computer program
KR101324440B1 (en) * 2009-02-11 2013-10-31 엘지디스플레이 주식회사 Method of controlling view of stereoscopic image and stereoscopic image display using the same
JP2011071898A (en) * 2009-09-28 2011-04-07 Panasonic Corp Stereoscopic video display device and stereoscopic video display method
JP5494284B2 (en) * 2010-06-24 2014-05-14 ソニー株式会社 3D display device and 3D display device control method
CN102959974B (en) * 2010-06-30 2015-07-29 富士胶片株式会社 Stereoscopic image reproducing device, its disparity adjustment method and camera
CN103202027B (en) * 2010-11-05 2016-01-20 富士胶片株式会社 Image processing apparatus, image processing program, image processing method and storage medium
WO2012073336A1 (en) * 2010-11-30 2012-06-07 株式会社 東芝 Apparatus and method for displaying stereoscopic images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105263014A (en) * 2015-10-12 2016-01-20 四川长虹电器股份有限公司 Implementation method of naked eye 3D UI (user interface) controls

Also Published As

Publication number Publication date
CN103686122A (en) 2014-03-26
JP2014049951A (en) 2014-03-17

Similar Documents

Publication Publication Date Title
JP5149435B1 (en) Video processing apparatus and video processing method
US8487983B2 (en) Viewing area adjusting device, video processing device, and viewing area adjusting method based on number of viewers
JP5129377B1 (en) Video processing device
JP5129376B1 (en) Video processing apparatus and video processing method
JP5134714B1 (en) Video processing device
JP5343156B1 (en) DETECTING DEVICE, DETECTING METHOD, AND VIDEO DISPLAY DEVICE
JP5117613B1 (en) Video processing apparatus, video processing method, and storage medium
JP5132804B1 (en) Video processing apparatus and video processing method
US20130050419A1 (en) Video processing apparatus and video processing method
JP5127967B1 (en) Video processing apparatus and video processing method
US20130050417A1 (en) Video processing apparatus and video processing method
US20140119600A1 (en) Detection apparatus, video display system and detection method
JP5395934B1 (en) Video processing apparatus and video processing method
JP5362071B2 (en) Video processing device, video display device, and video processing method
US20130050441A1 (en) Video processing apparatus and video processing method
US20130050442A1 (en) Video processing apparatus, video processing method and remote controller
JP5433763B2 (en) Video processing apparatus and video processing method
JP5032694B1 (en) Video processing apparatus and video processing method
JP2013055675A (en) Image processing apparatus and image processing method
JP5498555B2 (en) Video processing apparatus and video processing method
JP5433766B2 (en) Video processing apparatus and video processing method
JP2013055682A (en) Video processing device and video processing method
JP2013055641A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131018

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees