JP5343156B1 - 検出装置、検出方法および映像表示装置 - Google Patents
検出装置、検出方法および映像表示装置 Download PDFInfo
- Publication number
- JP5343156B1 JP5343156B1 JP2012147629A JP2012147629A JP5343156B1 JP 5343156 B1 JP5343156 B1 JP 5343156B1 JP 2012147629 A JP2012147629 A JP 2012147629A JP 2012147629 A JP2012147629 A JP 2012147629A JP 5343156 B1 JP5343156 B1 JP 5343156B1
- Authority
- JP
- Japan
- Prior art keywords
- remote control
- video
- viewer
- detected
- remote controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4318—Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
Abstract
【課題】リモコンの操作者を検出する検出装置および検出方法、ならびに、この検出装置を用いた映像表示装置を提供する。
【解決手段】実施形態によれば、映像表示装置を遠隔操作するリモコンの操作者を検出する検出装置であって、撮影された映像から視聴者の顔の位置を検出する顔検出部と、前記撮影された映像から前記リモコンの位置を検出するリモコン検出部と、前記検出された視聴者の顔が複数ある場合に、前記検出された顔の位置、および、前記検出されたリモコンの位置に基づいて、前記リモコンを操作している視聴者を特定する操作者特定部と、を備える検出装置が提供される。
【選択図】図1
【解決手段】実施形態によれば、映像表示装置を遠隔操作するリモコンの操作者を検出する検出装置であって、撮影された映像から視聴者の顔の位置を検出する顔検出部と、前記撮影された映像から前記リモコンの位置を検出するリモコン検出部と、前記検出された視聴者の顔が複数ある場合に、前記検出された顔の位置、および、前記検出されたリモコンの位置に基づいて、前記リモコンを操作している視聴者を特定する操作者特定部と、を備える検出装置が提供される。
【選択図】図1
Description
本発明の実施形態は、検出装置、検出方法および映像表示装置に関する。
近年、視聴者が特殊なメガネを使用せずに裸眼で立体映像を見ることができる立体映像表示装置(いわゆる裸眼3Dテレビ)が普及しつつある。この立体映像表示装置は、視点の異なる複数の画像を表示する。そして、それらの画像の光線は、例えばパララックスバリア、レンチキュラレンズなどによって出力方向を制御され、視聴者の両眼に導かれる。視聴者の位置が適切であれば、視聴者は、左目と右目とで異なる視差画像を見ることになるため、映像を立体的に認識することができる。
しかしながら、裸眼3Dテレビでは、視聴者の位置によっては、映像が立体的に見えないという問題がある。そこで、視聴者が映像を立体的に見えるよう、裸眼3Dテレビ側で調整するのが望ましい。
ところで、複数の視聴者が映像表示装置を視聴することもある。この場合、複数の視聴者の中でも、リモコンで映像表示装置を遠隔操作している視聴者が最も視聴意欲が高いことが多い。そのため、リモコンを操作している視聴者に対して、映像を立体的に見えるように調整するのが望ましい。
リモコンの操作者を検出する検出装置および検出方法、ならびに、この検出装置を用いた映像表示装置を提供する。
実施形態によれば、映像表示装置を遠隔操作するリモコンの操作者を検出する検出装置であって、撮影された映像から視聴者の顔の位置を検出する顔検出部と、前記撮影された映像から前記リモコンの位置を検出するリモコン検出部と、前記検出された視聴者の顔が複数ある場合に、前記検出された顔の位置、および、前記検出されたリモコンの位置に基づいて、前記リモコンを操作している視聴者を特定する操作者特定部と、を備える検出装置が提供される。そして、前記操作者特定部は、前記検出された視聴者の顔が複数ある場合に、前記映像における前記顔の水平方向位置と前記リモコンの水平方向位置との差が最小であり、かつ、下式を満たす視聴者を、リモコンを操作している視聴者と特定する。
y>Y+f(z)
yは前記映像における前記顔の垂直方向位置、Yは前記映像における前記リモコンの垂直方向位置、f(z)は前記映像表示装置と前記検出された顔との距離zが大きくなるほど小さくなる値。
y>Y+f(z)
yは前記映像における前記顔の垂直方向位置、Yは前記映像における前記リモコンの垂直方向位置、f(z)は前記映像表示装置と前記検出された顔との距離zが大きくなるほど小さくなる値。
以下、実施形態について、図面を参照しながら具体的に説明する。
(第1の実施形態)
図1は、映像表示装置100を複数の視聴者41〜43が視聴している様子を上から見た図である。同図では、視聴者42がリモコン51を保持して操作している。このリモコン51は、映像表示装置100を遠隔操作するために、赤外線信号を発するものである。そして、図2は、リモコン51の操作者を検出するリモコン操作者検出システムの概略構成を示すブロック図である。
図1は、映像表示装置100を複数の視聴者41〜43が視聴している様子を上から見た図である。同図では、視聴者42がリモコン51を保持して操作している。このリモコン51は、映像表示装置100を遠隔操作するために、赤外線信号を発するものである。そして、図2は、リモコン51の操作者を検出するリモコン操作者検出システムの概略構成を示すブロック図である。
リモコン操作者検出システムは、カメラ3と、リモコン操作者検出装置(以下、単に検出装置という)20とを備えている。検出装置20は、顔検出部21と、リモコン検出部22と、操作者特定部23とを有する。さらに、リモコン操作者検出システムが受光部4を備えるとともに、検出装置20がコード検出部24を有してもよい。
図2のカメラ3は、例えばCMOSカメラやCCDカメラである。このカメラ3は、例えば映像表示装置100の中央下部のベゼルに取り付けられ、あるいは、組み込まれている。そして、カメラ3は映像表示装置100の表示パネルと同じ方向を向いており、映像表示装置100の前方を撮影する。例えば、図1の状態をカメラ3で撮影すると、図3のような映像が得られる。
なお、同図の破線および座標は後述の説明で用いるものであって、実際の映像上に表示されるわけではない。また、便宜上、映像の左下を原点とし、水平方向をx軸(右向きが正)、垂直方向をy軸(上向きが正)とする。加えて図1に示すように、映像表示装置100からの距離をzとする。
ここで、カメラ3は、可視光はもちろんのこと、以下のように赤外線も検出できる。図4は、カメラ3が有する撮像素子の受光感度を概略的に示す図である。カメラ3はR撮像素子と、G撮像素子と、B撮像素子とを有する。R撮像素子は可視光のうち長波長の光に対して感度が高く、かつ、赤外(IR)領域にも感度がある。そのため、R撮像素子はリモコンが発する赤外線信号を撮影でき、カメラ3で撮影された映像に赤外線信号が現れる。
なお、G撮像素子は可視光のうち中波長の光に対して感度が高く、B撮像素子は可視光のうち短波長の光に対して感度が高い。よって、G撮像素子およびB撮像素子は、赤外線信号に対してほとんど反応しない。
カメラ3で撮影された映像は、図2における検出装置20内の顔検出部21およびリモコン検出部22に供給される。
顔検出部21は、カメラ3で撮影された映像から顔を検出し、その位置を特定する。顔検出部21は、目、鼻、口等、顔の特徴を示す情報を予め記憶しておき、これらの特徴と一致する映像内の部分を顔として検出する。そして、顔検出部21は、顔の位置、より具体的には顔の中心位置のx軸およびy軸上の位置、ならびに、映像表示装置100との距離zを視聴者の顔の位置(x,y,z)として特定する。映像表示装置100との距離zは、例えば検出された顔の幅や右目と左目との距離から推測できる。図3において、検出された視聴者41〜43の顔の位置をそれぞれ(x1,y1,z1),(x2,y2,z2),(x3,y3,z3)とする。これら顔の位置は操作者特定部23に供給される。
一方、リモコン検出部22は、カメラ3で撮影された映像からリモコン51を検出し、その位置を特定する。図5および図6は、リモコン検出部22の動作を説明する図である。図5(a),(b)は、それぞれ時刻t1,t2に撮影された映像を示している。時刻t1ではリモコン51は操作されておらず、リモコン51は赤外線信号を発していない。時刻t1より後である時刻t2で視聴者42がリモコン51を操作すると、リモコン51は赤外線信号52を発する。上述したように、カメラ3は赤外線信号52をも撮影する。
そして、リモコン検出部22は、時刻t1の映像と時刻t2の映像との差分を、画素ごとに算出する。図6は差分処理の結果を模式的に示している。時刻t1と時刻t2が近接していれば、リモコン51が赤外線信号52を発したこと以外、時刻t1の映像と時刻t2の映像とに差はないはずである。すなわち、赤外線信号52に対応する画素では差分値が高くなり、その他の画素では差分値がほぼ0となる。
このようにして、差分処理により赤外線信号の位置が検出される。以下では、検出された赤外線信号のx軸およびy軸上の位置を(X,Y)とする。リモコン51の位置(X,Y)は操作者特定部23に供給される。なお、リモコン51と映像表示装置100との距離は取得しなくてもよい。
なお、映像にノイズが存在することもある。この場合、撮影時刻が異なる2つの映像の差分処理を行っても、赤外線信号に対応する画素以外の画素でも差分値が高くなることがある。そのため、リモコン検出部22は、例えば差分値が所定値以上である画素が所定サイズ以下だけ隣接している場合に、リモコン51の赤外線信号であると判断してもよい。赤外線信号はそれほど大きくないためである。
上記の所定サイズは、例えば映像表示装置100から1mだけ離れたところからリモコン51の赤外線信号を発した時に撮影される画素数として定めることができる。具体例として、所定サイズを水平方向4画素×垂直方向4画素としてもよい。
また、リモコン検出部22は、カメラ3のR,GおよびB撮像素子で撮影された画素値を用いてもよいが、R撮像素子で撮影された画素値のみを用いてもよい。図4に示すように、赤外線に対してはR撮像素子が最も感度が高いため、R撮像素子のみを用いてもリモコンを検出でき、差分処理の負荷を軽減できる。また、G撮像素子およびB撮像素子で撮影された画素値を用いないことで、ノイズの影響を低減できる。
図2に戻り、検出装置20の操作者特定部23は、顔検出部21から供給される顔の位置と、リモコン検出部22から供給されるリモコン51の位置とに基づいて、いずれの視聴者がリモコンを操作しているかを特定する。より具体的には、操作者特定部23は、複数の視聴者41〜43の中から以下の2条件を満たす視聴者をリモコン操作者として特定する。
(1).|X−x|が最小であること。
(2).y>Yであること。
上記(1)は、リモコン操作者は、他の視聴者と比べ、顔のx軸上の位置とリモコン51のx軸上の位置が近くなると考えられることから導かれる条件である。上記(2)は、通常はリモコン51を手で操作するので、リモコン51の位置より顔の位置の方が高くなることから導かれる条件である。
図3において、|X−x1|および|X−x3|より、|X−x2|が小さい。かつ、図6においてy2>Yである。よって、操作者特定部23は視聴者42がリモコン操作者であることを特定できる。なお、顔が1つしか検出されなかった場合、リモコン51が検出されなかった場合、上記の2条件を満たす視聴者がいない場合には、操作者特定部23はリモコン操作者を特定しない。
また、より正確にリモコン操作者を特定するためには、上記(2)に代えて下記(2’)の条件としてもよい。
(2’)y>Y+f(z)であること。
f(z)はzに依存する値であり、より具体的には、zが大きいほどf(z)は小さくなる値である。視聴者が映像表示装置100から離れているほど(zが大きいほど)、映像における顔とリモコンとの距離は小さくなるためである。
以上のようにして、検出装置20はリモコン操作者を特定できる。
ところで、図2のリモコン検出部22は、映像表示装置100用のリモコンだけでなく、エアコン等他の機器用のリモコンを検出してしまうことがある。その結果、操作者特定部23が、他の機器用のリモコンを操作している視聴者を、誤って映像表示装置100用のリモコンを操作している視聴者と特定してしまうこともある。
そこで、受光部4が受光したリモコンからの赤外線信号に基づいて、当該赤外線信号が映像表示装置100に対する信号か否かを判定するコード検出部24を設けてもよい。コード検出部24は、赤外線信号のコードを解析することで、映像表示装置100に対する信号か否かを判定できる。映像表示装置100に対する信号でない場合、コード検出部24はその旨を操作者特定部23に通知する。
この場合、操作者特定部23は、上記の条件を満たす視聴者がいる場合でも、リモコンの操作者を特定しない。
このように、第1の実施形態では、カメラ3で撮影された映像を用いて、視聴者の顔およびリモコンを検出し、これらの位置関係に基づいてリモコン操作者を特定できる。
(第2の実施形態)
第2の実施形態は、第1のリモコン操作者検出システムを用いた立体映像表示装置に関するものであり、より具体的には、検出されたリモコン操作者に視域を設定するものである。
第2の実施形態は、第1のリモコン操作者検出システムを用いた立体映像表示装置に関するものであり、より具体的には、検出されたリモコン操作者に視域を設定するものである。
図7は、視域制御機能を有する映像表示装置100の外観図であり、図8は、その概略構成を示すブロック図である。映像表示装置100は、液晶パネル1と、レンチキュラレンズ2と、カメラ3と、受光部4と、コントローラ10とを備えている。
液晶パネル(表示部)1は、例えば55インチサイズのパネルであり、水平方向に11520(=1280*9)個、垂直方向に720個の画素が配置される。また、各画素内には、3つのサブピクセル、すなわち、Rサブピクセル、GサブピクセルおよびBサブピクセルが垂直方向に形成されている。液晶パネル1には、背面に設けられるバックライト装置(不図示)から光が照射される。各画素はコントローラ10から供給される視差画像信号(後述)に応じた輝度の光を透過させる。
レンチキュラレンズ(開口制御部)2は液晶パネル1の水平方向に沿って配置される複数の凸部を有し、その数は液晶パネル1の水平方向画素数の1/9である。そして、水平方向に配置される9個の画素につき1つの凸部が対応するように、レンチキュラレンズ2は液晶パネル1の表面に貼り付けられている。各画素を透過した光は凸部の頂点付近から指向性を持って特定の方向へ出力される。
本実施形態の液晶パネル1は、3視差以上の多視差方式(インテグラルイメージング方式)または2視差方式で、立体映像を表示することができ、この他に通常の2次元映像も表示可能である。
以下の説明では、レンチキュラレンズ2の各凸部に対応して9個の画素を設けて、9視差の多視差方式を採用可能な例を説明する。多視差方式では、各凸部に対応する9個の画素にそれぞれ第1〜第9視差画像を表示する。第1〜第9視差画像とは、液晶パネル1の水平方向に沿って並ぶ9つの視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で第1〜第9視差画像のうちの1つの視差画像を、右目で他の1つの視差画像をそれぞれ見ることにより、映像を立体視できる。多視差方式によると、視差の数を増やすほど、視域を広げることができる。視域とは、液晶パネル1の前方から液晶パネル1を見たときに映像を立体視可能な領域をいう。
一方、2視差方式では、各凸部に対応する9個の画素のうちの4個に右目用視差画像を、他の5個に左目用視差画像をそれぞれ表示する。左目用および右目用視差画像とは、水平方向に並ぶ2つの視点のうち、左側の視点および右側の視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で左目用視差画像を、右目で右目用視差画像をそれぞれ見ることにより、映像を立体視できる。2視差方式によると、表示される映像の立体感が多視差方式よりも得られやすくなるが、多視差方式に比べて視域が狭くなる。
なお、液晶パネル1は各凸部に対応する9個の画素に同一の画像を表示して、2次元画像を表示することもできる。
また、本実施形態では、レンチキュラレンズ2の凸部と表示される視差画像との相対的な位置関係、すなわち、各凸部に対応する9個の画素にどのように視差画像を表示するか、に応じて、視域を可変制御できるようにしている。以下、多視差方式を例に取って、視域の制御について説明する。
図9は、液晶パネル1およびレンチキュラレンズ2の一部を上方から見た図である。同図の網掛けの領域が視域を示しており、視域から液晶パネル1を見ると映像を立体視できる。他の領域は逆視やクロストークが発生する領域であり、映像を立体視するのが困難な領域である。
図9は、液晶パネル1とレンチキュラレンズ2との相対的な位置関係、より具体的には、液晶パネル1とレンチキュラレンズ2との距離、あるいは液晶パネル1とレンチキュラレンズ2との水平方向のずれ量によって、視域が変化する様子を示している。
図9は、液晶パネル1とレンチキュラレンズ2との相対的な位置関係、より具体的には、液晶パネル1とレンチキュラレンズ2との距離、あるいは液晶パネル1とレンチキュラレンズ2との水平方向のずれ量によって、視域が変化する様子を示している。
実際には、レンチキュラレンズ2は、液晶パネル1に高精度に位置合わせをして貼り付けられるため、液晶パネル1とレンチキュラレンズ2との相対的な位置を物理的に変更することは困難である。
そこで、本実施形態では、液晶パネル1の各画素に表示される第1〜第9視差画像の表示位置をずらすことで、見かけ上、液晶パネル1とレンチキュラレンズ2との相対的な位置関係を変更し、これにより、視域の調整を行う。
例えば、各凸部に対応する9個の画素に第1〜第9視差画像をそれぞれ表示した場合(図9(a))に比べ、視差画像を全体に右側にずらして表示した場合(図9(b))、視域は左側に移動する。逆に、視差画像を全体に左側にずらして表示した場合、視域は右側に移動する。
また、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を外側に大きくずらして表示した場合(図9(c))、視域は液晶パネル1に近づく方向に移動する。なお、ずらす視差画像とずらさない視差画像との間の画素や、ずらす量が異なる視差画像間の画素は、周囲の画素に応じて適宜補間すればよい。また、図9(c)とは逆に、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を中心側に大きくずらして表示した場合、視域は液晶パネル1から遠ざかる方向に移動する。
このように、視差画像の全体あるいは一部をずらして表示することにより、視域を液晶パネル1に対して左右方向あるいは前後方向に移動させることができる。図9では説明を簡略化するために視域を1つだけ示しているが、実際には複数の視域が存在し、これらは連動して移動する。視域は後述する図8のコントローラ10により制御される。
図8に戻り、カメラ3は、液晶パネル1の下部中央付近に、所定の仰角で取り付けられ、液晶パネル1の前方の所定の範囲を撮影する。撮影された映像はコントローラ10内の検出部20に供給さる。
受光部4は、例えば液晶パネル1の下部の左側に設けられる。そして、受光部4は視聴者が使用するリモコンから送信される赤外線信号を受信する。この赤外線信号は、立体映像を表示するか2次元映像を表示する、立体映像を表示する場合に多視差方式および2視差方式のいずれを採用するか、視域の制御を行うか否か、等を示す信号を含む。
次に、コントローラ10の構成要素の詳細について説明する。図8に示すように、コントローラ10は、チューナデコーダ11と、視差画像変換部12と、検出部20と、視域情報算出部14と、画像調整部15とを有する。コントローラ10は、例えば1つのIC(Integrated Circuit)として実装され、液晶パネル1の裏側に配置される。もちろん、コントローラ10の一部をソフトウェアで実装してもよい。
チューナデコーダ(受信部)11は入力される放送波を受信および選局し、符号化された映像信号を復号する。放送波に電子番組表(EPG)等のデータ放送の信号が重畳されている場合、チューナデコーダ11はこれを抽出する。あるいは、チューナデコーダ11は、放送波ではなく、光ディスク再生装置やパーソナルコンピュータ等の映像出力機器から符号化された映像信号を受信し、これを復号する。復号された信号はベースバンド映像信号とも呼ばれ、視差画像変換部12に供給される。なお、映像表示装置100が放送波を受信せず、専ら映像出力機器から受信する映像信号を表示する場合、チューナデコーダ11に代えて単に復号機能を有するデコーダを受信部として設けてもよい。
チューナデコーダ11が受信する映像信号は、2次元の映像信号であってもよいし、フレームパッキング(FP)、サイドバイサイド(SBS)あるいはトップアンドボトム(TAB)方式等で左目用および右目用の画像を含む3次元の映像信号であってもよい。また、映像信号は3視差以上の画像含む3次元の映像信号であってもよい。
視差画像変換部12は、映像を立体表示するために、ベースバンド映像信号を複数の視差画像信号に変換して画像調整部15に供給する。視差画像変換部12は、多視差方式と2視差方式のどちらを採用するかで、処理内容が異なる。また、ベースバンド映像信号が2次元の映像信号であるか、3次元の映像信号であるか、に応じて、視差画像変換部12の処理内容が異なる。
2視差方式を採用する場合、視差画像変換部12は、左目用および右目用視差画像にそれぞれ対応する左目用および右目用視差画像信号を生成する。より具体的には以下のようにする。
2視差方式を採用し、かつ、左目用および右目用の画像を含む3次元映像信号が入力された場合、視差画像変換部12は液晶パネル1に表示可能な形式の左目用および右目用視差画像信号を生成する。また、3つ以上の画像を含む3次元映像信号が入力される場合、例えばそのうちの任意の2つを用いて、視差画像変換部12は左目用および右目用視差画像信号を生成する。
これに対し、2視差方式を採用し、かつ、視差情報を含まない2次元の映像信号が入力された場合、視差画像変換部12は、映像信号における各画素の奥行き値に基づいて、左目用および右目用視差画像信号を生成する。奥行き値は、各画素がどの程度液晶パネル1に対して手前または奥に見えるように表示するか、を示す値である。奥行き値は予め映像信号に付加されていてもよいし、映像信号の特徴に基づいて動き検出、構図識別および人間の顔検出等を行って奥行き値を生成してもよい。左目用視差画像では、手前に見える画素は奥に見える画素より右側にずれて表示される必要がある。そのため、視差画像変換部12は映像信号における手前に見える画素を右側にずらす処理を行って左目用視差画像信号を生成する。奥行き値が大きいほどずらす量を大きくする。
一方、多視差方式を採用する場合、視差画像変換部12は第1〜第9視差画像にそれぞれ対応する第1〜第9視差画像信号を生成する。より具体的には以下のようにする。
多視差方式を採用し、かつ、2次元の映像信号または8視差以下の画像を含む3次元の映像信号が入力された場合、視差画像変換部12は、2次元の映像信号から左目用および右目用視差画像信号を生成するのと同様に奥行き情報に基づいて、第1〜第9視差画像信号を生成する。
多視差方式を採用し、かつ、9視差の画像を含む3次元の映像信号が入力された場合、視差画像変換部12はその映像信号を用いて第1〜第9視差画像信号を生成する。
検出部20は第1の実施形態で説明した検出装置20であり、カメラ3により撮影された映像を用いて、視聴者の中からリモコン操作者を検出し、その位置情報を視域情報算出部14に供給する。
視域情報算出部14は、検出された視聴者の位置情報に応じて適切に視域が設定されるよう、制御パラメータ(例えば、図9で説明した視差画像をずらす量)を算出し、画像調整部15に供給する。
図10は、視域情報を算出する手法の一例を示す図である。視域情報算出部14は設定可能な視域のパターンをいくつか予め定めておく。そして、視域情報算出部14は、各視域について、視域と検出された視聴者とが重なる面積を算出し、その面積が最大となる視域を適切な視域と判断する。図10の例では、予め定めた図10(a)〜図10(e)の5つの視域(網掛けの領域)のパターンのうち、視域を液晶パネル1に向かって左側に設定する図10(b)において、リモコン51を操作する視聴者42と視域とが重なる面積が最大となる。よって、視域情報算出部14は図10(b)の視域のパターンを適切な視域と判断する。この場合、図10(b)のパターンで視差画像を表示するための制御パラメータが図2の画像調整部15に供給される。
より詳しくは、所望の視域を設定するために、視域情報算出部14は、制御パラメータと、その制御パラメータで設定される視域とを対応付けた視域データベースを用いてもよい。視域情報算出部14は、視域データベースを検索することによって、選択された視聴者を収めることの可能な視域を見つけることができる。
画像調整部(視域制御部)15は、視域を制御するために、算出された制御パラメータに応じて視差画像信号をずらしたり補間したりする調整を行った後に、液晶パネル1に供給する。液晶パネル1は調整された視差画像信号に対応する画像を表示する。
なお、コントローラ10は、常時リモコン操作者を検出し、リモコン51が操作される度にリアルタイムに視域を設定してもよい。しかしながら、リモコン51が操作される度に、頻繁に視域が移動すると、却って映像が見づらくなることもある。そこで、視聴者が視域を設定するタイミングをリモコン51で操作してもよい。
例えば、リモコン51の所定のボタンを押下すると視域調整指示信号が発せられ、これを受光部4が受光する。これに同期して、視域情報算出部14は制御パラメータを更新してもよい。言い換えると、検出部20がリモコン操作者を検出しても、視域調整指示信号が生成されるまで、視域は再設定されないようにしてもよい。
なお上述した各実施形態の映像表示装置100では、レンチキュラレンズ2を用い、視差画像をずらすことによって視域を制御する例を示したが、他の手法で視域を制御してもよい。例えば、レンチキュラレンズ2に代えてパララックスバリアを開口制御部として設けてもよい。また、図11は、図8の変形例である映像表示装置100’の概略構成を示すブロック図である。同図に示すように、視差画像をずらす処理を行わず、コントローラ10’内に視域制御部15’を設けて開口制御部2’を制御してもよい。この場合、液晶パネル1と開口制御部2’との距離、液晶パネル1と開口制御部との水平方向のずれ量等を制御パラメータとし、液晶パネル1に表示された視差画像の出力方向を制御することにより視域が制御される。
このように、第2の実施形態では、
上述した実施形態で説明したリモコン操作者検出システムの少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、リモコン操作者検出システムの少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
上述した実施形態で説明したリモコン操作者検出システムの少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、リモコン操作者検出システムの少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
また、リモコン操作者検出システムの少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 液晶パネル
2 レンチキュラレンズ
3 カメラ
4 受光部
11 チューナデコーダ
12 視差画像変換部
14 視域情報算出部
15 画像調整部
15’ 視域制御部
20 検出装置
21 顔検出部
22 リモコン検出部
23 操作者特定部
24 コード検出部
100 映像表示装置
2 レンチキュラレンズ
3 カメラ
4 受光部
11 チューナデコーダ
12 視差画像変換部
14 視域情報算出部
15 画像調整部
15’ 視域制御部
20 検出装置
21 顔検出部
22 リモコン検出部
23 操作者特定部
24 コード検出部
100 映像表示装置
Claims (14)
- 映像表示装置を遠隔操作するリモコンの操作者を検出する検出装置であって、
撮影された映像から視聴者の顔の位置を検出する顔検出部と、
前記撮影された映像から前記リモコンの位置を検出するリモコン検出部と、
前記検出された視聴者の顔が複数ある場合に、前記検出された顔の位置、および、前記検出されたリモコンの位置に基づいて、前記リモコンを操作している視聴者を特定する操作者特定部と、を備え、
前記操作者特定部は、前記検出された視聴者の顔が複数ある場合に、前記映像における前記顔の水平方向位置と前記リモコンの水平方向位置との差が最小であり、かつ、下記(1)式を満たす視聴者を、リモコンを操作している視聴者と特定する検出装置
y>Y+f(z) ・・・(1)
yは前記映像における前記顔の垂直方向位置、Yは前記映像における前記リモコンの垂直方向位置、f(z)は前記映像表示装置と前記検出された顔との距離zが大きくなるほど小さくなる値。 - 前記リモコン検出部は、第1の時刻に撮影された映像と、前記第1の時刻より後の第2の時刻に撮影された映像と、の差分に基づいて、前記リモコンの位置を検出する請求項1に記載の検出装置。
- 前記リモコン検出部は、第1の時刻に撮影された映像の各画素の値と、前記第1の時刻より後の第2の時刻に撮影された映像の各画素の値と、の差分値が所定値以上である画素が、所定サイズ以下隣接している位置を、前記リモコンの位置として検出する請求項1に記載の検出装置。
- 前記リモコンは赤外線を発し、
前記リモコン検出部は、カメラで撮影された映像から前記リモコンの位置を検出し、
前記カメラは、
可視光のうち長波長の光に対して感度が高い第1の撮像素子と、
可視光のうち中波長の光に対して感度が高い第2の撮像素子と、
可視光のうち短波長の光に対して感度が高い第3の撮像素子と、を有し、
前記リモコン検出部は、前記第1の撮像素子で撮影された画素値を用い、かつ、前記第2の撮像素子および前記第3の撮像素子で撮影された画素値を用いずに、前記リモコンの位置を検出する請求項1に記載の検出装置。 - 前記カメラは、CMOSカメラまたはCCDカメラである請求項4に記載の検出装置。
- 前記リモコンが発する信号のコードに基づいて、前記映像表示装置を遠隔操作するリモコンであるか否かを検出するコード検出部を備え、
前記操作者特定部は、前記映像表示装置を遠隔操作するリモコンである場合に、前記リモコンを操作している視聴者を特定する請求項1に記載の検出装置。 - 請求項1乃至6のいずれかに記載の検出装置と、
立体表示可能な表示パネルと、
前記検出されたリモコンを操作している視聴者の位置に、前記表示パネルに表示される映像を立体的に見ることが可能な視域を設定する視域制御部と、を備える映像表示装置。 - 前記リモコンからの信号を受光する受光部を備え、
前記視域制御部は、前記リモコンが発する視域調整指示信号を前記受光部が受信したタイミングで、前記検出されたリモコンを操作している視聴者の位置に、前記視域を設定する請求項7に記載の映像表示装置。 - 映像表示装置を遠隔操作するリモコンの操作者を検出する検出方法であって、
撮影された映像から視聴者の顔の位置を検出する方法と、
前記撮影された映像から前記リモコンの位置を検出するステップと、
前記検出された視聴者の顔が複数ある場合に、前記検出された顔の位置、および、前記検出されたリモコンの位置に基づいて、前記リモコンを操作している視聴者を特定するステップと、を備え、
前記リモコンを操作している視聴者を特定するステップでは、前記検出された視聴者の顔が複数ある場合に、前記映像における前記顔の水平方向位置と前記リモコンの水平方向位置との差が最小であり、かつ、下記(1)式を満たす視聴者を、リモコンを操作している視聴者と特定する検出方法
y>Y+f(z) ・・・(1)
yは前記映像における前記顔の垂直方向位置、Yは前記映像における前記リモコンの垂直方向位置、f(z)は前記映像表示装置と前記検出された顔との距離zが大きくなるほど小さくなる値。 - 前記リモコンの位置を検出するステップでは、第1の時刻に撮影された映像と、前記第1の時刻より後の第2の時刻に撮影された映像と、の差分に基づいて、前記リモコンの位置を検出する請求項9に記載の検出方法。
- 前記リモコンの位置を検出するステップでは、第1の時刻に撮影された映像の各画素の値と、前記第1の時刻より後の第2の時刻に撮影された映像の各画素の値と、の差分値が所定値以上である画素が、所定サイズ以下隣接している位置を、前記リモコンの位置として検出する請求項9に記載の検出方法。
- 前記リモコンは赤外線を発し、
前記リモコンの位置を検出するステップでは、カメラで撮影された映像から前記リモコンの位置を検出し、
前記カメラは、
可視光のうち長波長の光に対して感度が高い第1の撮像素子と、
可視光のうち中波長の光に対して感度が高い第2の撮像素子と、
可視光のうち短波長の光に対して感度が高い第3の撮像素子と、を有し、
前記リモコンの位置を検出するステップでは、前記第1の撮像素子で撮影された画素値を用い、かつ、前記第2の撮像素子および前記第3の撮像素子で撮影された画素値を用いずに、前記リモコンの位置を検出する請求項9に記載の検出方法。 - 前記カメラは、CMOSカメラまたはCCDカメラである請求項12に記載の検出方法。
- 前記リモコンが発する信号のコードに基づいて、前記映像表示装置を遠隔操作するリモコンであるか否かを検出するステップを備え、
前記リモコンを操作している視聴者を特定するステップでは、前記映像表示装置を遠隔操作するリモコンである場合に、前記リモコンを操作している視聴者を特定する請求項9に記載の検出方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012147629A JP5343156B1 (ja) | 2012-06-29 | 2012-06-29 | 検出装置、検出方法および映像表示装置 |
US13/774,696 US9204078B2 (en) | 2012-06-29 | 2013-02-22 | Detector, detection method and video display apparatus |
CN201310084421.2A CN103517056A (zh) | 2012-06-29 | 2013-03-15 | 检测器、检测方法和视频显示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012147629A JP5343156B1 (ja) | 2012-06-29 | 2012-06-29 | 検出装置、検出方法および映像表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5343156B1 true JP5343156B1 (ja) | 2013-11-13 |
JP2014011673A JP2014011673A (ja) | 2014-01-20 |
Family
ID=49679217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012147629A Expired - Fee Related JP5343156B1 (ja) | 2012-06-29 | 2012-06-29 | 検出装置、検出方法および映像表示装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9204078B2 (ja) |
JP (1) | JP5343156B1 (ja) |
CN (1) | CN103517056A (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150002295A1 (en) * | 2013-06-27 | 2015-01-01 | Brian J. Thurmon | Locatable remote control and associated content consumption devices |
US9674563B2 (en) * | 2013-11-04 | 2017-06-06 | Rovi Guides, Inc. | Systems and methods for recommending content |
US20150237351A1 (en) * | 2014-02-18 | 2015-08-20 | Penne Lee | Techniques for inclusion of region of interest indications in compressed video data |
CN104378669A (zh) * | 2014-09-17 | 2015-02-25 | 安科智慧城市技术(中国)有限公司 | 一种多用户智能电视系统及控制方法 |
US9473767B1 (en) * | 2015-03-31 | 2016-10-18 | Cae Inc. | Multifactor eye position identification in a display system |
RU2640222C1 (ru) * | 2016-10-10 | 2017-12-27 | Юлия Алексеевна Щепочкина | Ферромагнитное стекло |
EP3720125A1 (en) * | 2019-04-02 | 2020-10-07 | SeeFront GmbH | Autostereoscopic multi-viewer display device |
EP3720126A1 (en) * | 2019-04-02 | 2020-10-07 | SeeFront GmbH | Autostereoscopic multi-viewer display device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010045604A (ja) * | 2008-08-13 | 2010-02-25 | Oki Electric Ind Co Ltd | 受信装置、受信方法、プログラムおよび送受信システム |
JP2011505618A (ja) * | 2007-11-21 | 2011-02-24 | ジェスチャー テック,インコーポレイテッド | デバイスアクセス制御 |
JP2011223573A (ja) * | 2010-03-26 | 2011-11-04 | Sharp Corp | 表示装置、テレビジョン受像機、表示装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2011239279A (ja) * | 2010-05-12 | 2011-11-24 | Hitachi Consumer Electronics Co Ltd | 遠隔制御装置および遠隔制御方法 |
JP2012010085A (ja) * | 2010-06-24 | 2012-01-12 | Sony Corp | 立体表示装置及び立体表示装置の制御方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003223422A (ja) | 2002-01-31 | 2003-08-08 | Toshiba Corp | 個人認証システム |
JP4756980B2 (ja) | 2005-09-29 | 2011-08-24 | 船井電機株式会社 | テレビジョン受信装置 |
PL2005414T3 (pl) | 2006-03-31 | 2012-07-31 | Koninl Philips Electronics Nv | Urządzenie oraz sposób przetwarzania danych |
CN101925916B (zh) | 2007-11-21 | 2013-06-19 | 高通股份有限公司 | 基于媒体偏好控制电子设备的方法和系统 |
CN101488030A (zh) | 2009-02-10 | 2009-07-22 | 深圳Tcl新技术有限公司 | 显示屏调整装置以及方法 |
JP5337609B2 (ja) * | 2009-07-15 | 2013-11-06 | 日立コンシューマエレクトロニクス株式会社 | 放送受信装置 |
JP5494283B2 (ja) * | 2010-06-24 | 2014-05-14 | ソニー株式会社 | 立体表示装置及び立体表示装置の制御方法 |
US20130194394A1 (en) * | 2012-02-01 | 2013-08-01 | Peter Rae Shintani | Energy Conserving Display |
-
2012
- 2012-06-29 JP JP2012147629A patent/JP5343156B1/ja not_active Expired - Fee Related
-
2013
- 2013-02-22 US US13/774,696 patent/US9204078B2/en not_active Expired - Fee Related
- 2013-03-15 CN CN201310084421.2A patent/CN103517056A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011505618A (ja) * | 2007-11-21 | 2011-02-24 | ジェスチャー テック,インコーポレイテッド | デバイスアクセス制御 |
JP2010045604A (ja) * | 2008-08-13 | 2010-02-25 | Oki Electric Ind Co Ltd | 受信装置、受信方法、プログラムおよび送受信システム |
JP2011223573A (ja) * | 2010-03-26 | 2011-11-04 | Sharp Corp | 表示装置、テレビジョン受像機、表示装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2011239279A (ja) * | 2010-05-12 | 2011-11-24 | Hitachi Consumer Electronics Co Ltd | 遠隔制御装置および遠隔制御方法 |
JP2012010085A (ja) * | 2010-06-24 | 2012-01-12 | Sony Corp | 立体表示装置及び立体表示装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US9204078B2 (en) | 2015-12-01 |
JP2014011673A (ja) | 2014-01-20 |
US20140002619A1 (en) | 2014-01-02 |
CN103517056A (zh) | 2014-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5343156B1 (ja) | 検出装置、検出方法および映像表示装置 | |
JP5149435B1 (ja) | 映像処理装置および映像処理方法 | |
JP5129377B1 (ja) | 映像処理装置 | |
JP5129376B1 (ja) | 映像処理装置および映像処理方法 | |
JP5134714B1 (ja) | 映像処理装置 | |
JP5132804B1 (ja) | 映像処理装置および映像処理方法 | |
JP5156116B1 (ja) | 映像処理装置および映像処理方法 | |
JP5127967B1 (ja) | 映像処理装置および映像処理方法 | |
JP2013123094A (ja) | 映像処理装置および映像処理方法ならびに記憶媒体 | |
JP5095851B1 (ja) | 映像処理装置および映像処理方法 | |
JP5156117B1 (ja) | 映像処理装置および映像処理方法 | |
US20130050442A1 (en) | Video processing apparatus, video processing method and remote controller | |
JP5433763B2 (ja) | 映像処理装置および映像処理方法 | |
JP5362071B2 (ja) | 映像処理装置、映像表示装置および映像処理方法 | |
JP5603911B2 (ja) | 映像処理装置、映像処理方法および遠隔制御装置 | |
JP5568116B2 (ja) | 映像処理装置および映像処理方法 | |
JP5032694B1 (ja) | 映像処理装置および映像処理方法 | |
JP2013055675A (ja) | 映像処理装置および映像処理方法 | |
JP5433766B2 (ja) | 映像処理装置および映像処理方法 | |
JP5498555B2 (ja) | 映像処理装置および映像処理方法 | |
JP2013055694A (ja) | 映像処理装置および映像処理方法 | |
JP2013055682A (ja) | 映像処理装置および映像処理方法 | |
JP2014049951A (ja) | 映像処理装置および映像処理方法 | |
JP2013055641A (ja) | 映像処理装置および映像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130719 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 Free format text: JAPANESE INTERMEDIATE CODE: R313121 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |