JP5894055B2 - VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM - Google Patents
VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM Download PDFInfo
- Publication number
- JP5894055B2 JP5894055B2 JP2012230774A JP2012230774A JP5894055B2 JP 5894055 B2 JP5894055 B2 JP 5894055B2 JP 2012230774 A JP2012230774 A JP 2012230774A JP 2012230774 A JP2012230774 A JP 2012230774A JP 5894055 B2 JP5894055 B2 JP 5894055B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- user
- camera
- face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 32
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000004891 communication Methods 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 9
- 239000000203 mixture Substances 0.000 claims description 9
- 230000000694 effects Effects 0.000 description 16
- 238000001514 detection method Methods 0.000 description 13
- 238000013500 data storage Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000001755 vocal effect Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 208000032041 Hearing impaired Diseases 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Description
本発明は、聴覚障害者やその家族等、手話や口話を用いてコミュニケーションを行うユーザに対する映像データの制御技術に関する。 The present invention relates to a technique for controlling video data for a user who communicates using sign language or spoken language, such as a hearing impaired person or his family.
「テレビを見ながら家族と会話をする」という行為は、聴覚に障害がない聴者であれば自然に行うことができる。聴者同士にとって、音声のみによるコミュニケーション方法は一般的な意思疎通方法であり、映像コンテンツの視聴を中断することなく実施できるからである。 The act of “conversing with family while watching TV” can be performed naturally by a listener who is not impaired in hearing. This is because, for the listeners, the communication method using only sound is a general communication method and can be performed without interrupting the viewing of the video content.
一方、手話や口話を用いてコミュニケーションを行う聴覚障害者やその家族にとって、上記行為を行うことはほぼ不可能である。手話や口話は相手と目を合わせることで成立するコミュニケーション方法であり、映像コンテンツの視聴時に会話をするには視聴を中断して相手と向き合う必要があるためである。 On the other hand, it is almost impossible for the hearing impaired and their family members who communicate using sign language or speech to perform the above actions. This is because the sign language and the spoken language are communication methods established by looking at the other party, and it is necessary to interrupt the viewing and face the other party in order to have a conversation when viewing the video content.
ここで、このような課題を解決する方法として、複数のユーザ自身を撮影したカメラ映像を視聴中の映像コンテンツに合成することにより、ユーザ同士が映像コンテンツを視聴しながら互いの姿を視認し、映像越しに手話や口話でのコミュニケーションを行うようにする方法が考えられる(特許文献1参照)。 Here, as a method of solving such a problem, by synthesizing the camera video taken by a plurality of users with the video content being viewed, the users can see each other while viewing the video content, A method of communicating in sign language or spoken language over the video is conceivable (see Patent Document 1).
また、より簡易な方法としては、図11に示すように、テレビの上に鏡を載置し、その鏡でユーザの姿を反射させることにより、テレビ画面の映像を見ながら手話や口話でのコミュニケーションを行うようにする方法も考えられる。 As a simpler method, as shown in FIG. 11, a mirror is placed on the TV and the user's appearance is reflected by the mirror, so that the user can use sign language or spoken language while watching the video on the TV screen. It is also possible to have a method of communicating with each other.
しかしながら、家庭での映像コンテンツの視聴スタイルは、図11に示したようなテレビ画面の近くに座って視聴するスタイルのみとは限らない。図11のような間取りの部屋においては、例えば、ソファに寝転んで視聴するスタイル、食卓について視聴するスタイル、キッチンで炊事をしながら視聴するスタイル、掃除のため部屋全体を動き回りながら視聴するスタイル等が考えられる。 However, the viewing style of video content at home is not limited to the style of sitting near a television screen as shown in FIG. In the floor plan room as shown in FIG. 11, for example, there are a style of lying on a sofa and watching, a style of watching about a dining table, a style of watching while cooking in the kitchen, a style of watching while moving around the whole room for cleaning, etc. Conceivable.
ゆえに、カメラや鏡へのユーザの映り方によってはユーザの下半身や余分な背景等がカメラ映像や鏡像に含まれてしまうため、必ずしも手話や口話によるコミュニケーションに適した映像や鏡像とは言えず、そのコミュニケーションを行うユーザは手先や指先の細かい表現、顔の表情、唇の微妙な動きをその映像等から注意深く読み取らなければならないという問題があった。 Therefore, depending on how the user is reflected in the camera and mirror, the lower body of the user and extra background may be included in the camera image and mirror image. Therefore, it is not necessarily a video or mirror image suitable for sign language or verbal communication. However, there is a problem that the user who performs the communication must carefully read detailed expressions of the hand and fingertips, facial expressions, and delicate movements of the lips from the image.
本発明は、上記事情を鑑みてなされたものであり、様々な視聴スタイルで映像コンテンツを視聴していても、その映像コンテンツを視聴しながら手話や口話によるコミュニケーションを実現することを課題とする。 The present invention has been made in view of the above circumstances, and it is an object of the present invention to realize communication in sign language or spoken language while viewing video content even when viewing the video content in various viewing styles. .
請求項1記載の映像データ制御装置は、映像コンテンツを表示可能な映像表示装置の画面側から撮影され、前記映像コンテンツを任意の視聴スタイルで視聴しているユーザのカメラ映像をビデオカメラから受信するカメラ映像受付手段と、前記カメラ映像から前記ユーザの顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、前記顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、前記顔の画像領域のみから成るユーザ映像を生成するユーザ映像生成手段と、前記ユーザ映像が表示されるように前記ユーザ映像を前記映像コンテンツに重畳する映像合成手段と、前記重畳されたユーザ映像及び映像コンテンツを前記映像表示装置に出力する映像出力手段と、を有し、前記ユーザ映像生成手段は、前記カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成することを特徴とする。 The video data control device according to claim 1 receives a camera video of a user who is photographed from a screen side of a video display device capable of displaying video content and is viewing the video content in an arbitrary viewing style from a video camera. In the case of a mode for extracting image areas of the user's face and upper body from the camera image and communicating with sign language according to the mode selected and determined by the user , the camera image receiving means and the face and upper body In a mode in which a user video consisting only of the image area is generated and communication is carried out by verbal speech, user video generation means for generating a user video consisting only of the face image area and the user video are displayed. Video synthesizing means for superimposing the user video on the video content, and the superimposed user video And has a video output means for outputting the video content to the video display device, the user image generation unit, when the distance between the user photographed in the camera image is larger than the threshold value, divides the plurality of users A plurality of user videos are generated .
本発明によれば、映像表示装置の映像コンテンツを視聴しているユーザのカメラ映像から顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、顔の画像領域のみから成るユーザ映像を生成して、映像コンテンツに重畳して映像表示装置に出力するため、映像コンテンツの視聴スタイルに依存することなく、映像コンテンツを視聴しながら手話や口話によるコミュニケーションを実現できる。また、本発明によれば、カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成するため、カメラ映像にユーザの下半身やユーザ間等の余分な背景等が含まれてしまうのを防止できる。 According to the present invention, it extracts the image area from the camera image the face and upper body of a user viewing the video content of the video display device, depending on the selected determined mode by the user, performs communication by sign language mode In this case, a user video consisting only of the image area of the face and the upper body is generated, and in a mode in which communication is carried out by spoken language, a user video consisting of only the image area of the face is generated and superimposed on the video content. Thus, since it is output to the video display device, it is possible to realize sign language or spoken language communication while viewing the video content without depending on the viewing style of the video content. In addition, according to the present invention, when the distance between users captured in the camera video is larger than the threshold value, a plurality of user videos are generated by dividing the plurality of users. It is possible to prevent the excessive background of the image from being included.
請求項2記載の映像データ制御装置は、映像コンテンツを表示可能な映像表示装置の画面側から撮影され、前記映像コンテンツを任意の視聴スタイルで視聴しているユーザのカメラ映像をビデオカメラから受信するカメラ映像受付手段と、前記カメラ映像から前記ユーザの顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、前記顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、前記顔の画像領域のみから成るユーザ映像を生成するユーザ映像生成手段と、前記ユーザの視野内に位置する他の映像表示装置に前記ユーザ映像を出力する映像出力手段と、を有し、前記ユーザ映像生成手段は、前記カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成することを特徴とする。 The video data control device according to claim 2 receives a camera video of a user who is photographed from a screen side of a video display device capable of displaying video content and is viewing the video content in an arbitrary viewing style from a video camera. In the case of a mode for extracting image areas of the user's face and upper body from the camera image and communicating with sign language according to the mode selected and determined by the user , the camera image receiving means and the face and upper body A user video generation means for generating a user video consisting only of the image area of the face and a user video consisting of only the image area of the face in a mode in which communication is carried out by spoken language, and positioned within the field of view of the user a video output means for outputting the other of the user image to the image display device for, the, the user image generation hands The distance between the user photographed in the camera image is larger than the threshold value, and generating a plurality of user video obtained by dividing the plurality of users.
本発明によれば、映像表示装置の映像コンテンツを視聴しているユーザのカメラ映像から顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、顔の画像領域のみから成るユーザ映像を生成して、ユーザの視野内に位置する他の映像表示装置に出力するため、映像コンテンツの視聴スタイルに依存することなく、映像コンテンツを視聴しながら手話や口話によるコミュニケーションを実現できる。また、本発明によれば、カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成するため、カメラ映像にユーザの下半身やユーザ間等の余分な背景等が含まれてしまうのを防止できる。 According to the present invention, it extracts the image area from the camera image the face and upper body of a user viewing the video content of the video display device, depending on the selected determined mode by the user, performs communication by sign language mode in the case of, it generates a user image consisting of only the image area of the face and upper body, when the mode for communication with the mouth talk generates the user image consisting of only the image area of the face, the user's field of view Because it is output to another video display device located at, communication with sign language or spoken language can be realized while viewing the video content without depending on the viewing style of the video content. In addition, according to the present invention, when the distance between users captured in the camera video is larger than the threshold value, a plurality of user videos are generated by dividing the plurality of users. It is possible to prevent the excessive background of the image from being included.
請求項3記載の映像データ制御方法は、コンピュータにより、映像コンテンツを表示可能な映像表示装置の画面側から撮影され、前記映像コンテンツを任意の視聴スタイルで視聴しているユーザのカメラ映像をビデオカメラから受信するカメラ映像受付ステップと、前記カメラ映像から前記ユーザの顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、前記顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、前記顔の画像領域のみから成るユーザ映像を生成するユーザ映像生成ステップと、前記ユーザ映像が表示されるように前記ユーザ映像を前記映像コンテンツに重畳する映像合成ステップと、前記重畳されたユーザ映像及び映像コンテンツを前記映像表示装置に出力する映像出力ステップと、を有し、前記ユーザ映像生成ステップでは、前記カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成することを特徴とする。
The video data control method according to
請求項4記載の映像データ制御方法は、コンピュータにより、映像コンテンツを表示可能な映像表示装置の画面側から撮影され、前記映像コンテンツを任意の視聴スタイルで視聴しているユーザのカメラ映像をビデオカメラから受信するカメラ映像受付ステップと、前記カメラ映像から前記ユーザの顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、前記顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、前記顔の画像領域のみから成るユーザ映像を生成するユーザ映像生成ステップと、前記ユーザの視野内に位置する他の映像表示装置に前記ユーザ映像を出力する映像出力ステップと、を有し、前記ユーザ映像生成ステップでは、前記カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成することを特徴とする。 5. The video data control method according to claim 4 , wherein a video of a camera of a user who is photographed from a screen side of a video display device capable of displaying video content by a computer and is viewing the video content in an arbitrary viewing style. In the case of a mode in which the camera image reception step received from the camera image and the image area of the user's face and upper body are extracted from the camera image and the communication is performed in sign language according to the mode selected and determined by the user , A user video generation step of generating a user video consisting only of the face and upper body image area and generating a user video consisting only of the image area of the face in a mode in which communication is made through oral speech; Video output step for outputting the user video to another video display device located within Has, in the user image generation step, the distance between the user photographed in the camera image is larger than the threshold value, and generating a plurality of user video obtained by dividing the plurality of users.
請求項5記載の映像データ制御プログラムは、コンピュータを請求項1又は2に記載の映像データ制御装置として機能させることを特徴とする。
A video data control program according to
本発明によれば、様々な視聴スタイルで映像コンテンツを視聴していても、その映像コンテンツを視聴しながら手話や口話によるコミュニケーションを行うことができる。 According to the present invention, even when video content is viewed in various viewing styles, it is possible to communicate in sign language or spoken language while viewing the video content.
本発明は、手話や口話によるコミュニケーションが顔の変化や指の動作を注視して行われることに着目し、映像コンテンツを視聴しているユーザのカメラ映像から顔と指先の可動域である上半身との画像領域を抽出して、映像コンテンツに重畳して表示又はユーザの視野内に単独表示することにより、特定の視聴スタイルに依存することなく、映像コンテンツを視聴しながら手話や口話によるコミュニケーションを実現するものである。 The present invention focuses on the fact that communication by sign language or spoken language is performed by paying attention to facial changes and finger movements, and the upper body that is the range of motion of the face and fingertips from the camera video of the user viewing the video content. The image area is extracted and superimposed on the video content or displayed alone in the user's field of view, so that the user can communicate in sign language or spoken language while viewing the video content without depending on the specific viewing style. Is realized.
また、様々な視聴スタイルのうち距離的に遠いユーザ同士が上記コミュニケーションを行うスタイルに着目し、撮影されたユーザ間の距離によってはユーザ映像を分割した状態で表示することにより、カメラ映像にユーザの下半身やユーザ間等の余分な背景等が含まれてしまうのを防止している。 Also, paying attention to the above-mentioned communication style among users who are distant from each other among various viewing styles, depending on the distance between the photographed users, the user video may be displayed in a divided state so that the user can see the camera video. It prevents the extra background of the lower body and between users from being included.
以下、本発明を実施する一実施の形態について図面を用いて説明する。但し、本発明は多くの異なる様態で実施することが可能であり、本実施の形態の記載内容に限定して解釈すべきではない。 Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings. However, the present invention can be implemented in many different modes and should not be construed as being limited to the description of the present embodiment.
〔第1の実施の形態〕
最初に、図1を参照しながら、第1の実施の形態に係る視聴者映像表示システムの全体構成について説明する。
[First Embodiment]
First, the overall configuration of the viewer video display system according to the first embodiment will be described with reference to FIG.
この視聴者映像表示システムは、映像コンテンツを画面に表示する映像表示装置5と、映像表示装置5の画面側から視聴者(以下、ユーザ)50を撮影するビデオカメラ3と、映像コンテンツを視聴しているユーザ50のカメラ映像を画像処理する映像データ制御装置1と、映像データ制御装置1を遠隔操作するリモコン端末7と、映像コンテンツを出力する映像コンテンツ出力装置9と、で主に構成される。
This viewer video display system views video content, a
映像データ制御装置1は、視聴者映像表示システムにおいてカメラ映像からユーザ50に係る画像領域を抽出等する中心的役割を担い、自機以外の全ての装置(映像表示装置5、ビデオカメラ3、リモコン端末7、映像コンテンツ出力装置9)に有線又は無線の通信経路を介してデータ通信可能に接続されている。
The video data control device 1 plays a central role in extracting an image area related to the
また、映像コンテンツ出力装置9としては、例えば、放送局から受信した地上デジタル信号を映像コンテンツとして出力する地上デジタルテレビ放送受信機や、ハードディスクやDVD等に録画された映像コンテンツを出力するブルーレイ・DVDレコーダ等が例とされる。
As the video
次に、映像データ制御装置1の機能について説明する。映像データ制御装置1は、カメラ映像受付部11と、カメラ映像記憶部12と、カメラ映像解析部13と、ユーザ映像生成部14と、映像合成部15と、映像出力部16と、調整データ受付部17と、調整データ記憶部18とを備えている。
Next, functions of the video data control apparatus 1 will be described. The video data control apparatus 1 includes a camera
カメラ映像受付部11は、カメラ映像入力インタフェース31を介して、映像コンテンツを視聴しているユーザ50のカメラ映像をビデオカメラ3から受信し、カメラ映像記憶部12に一時記憶させる機能を有している。
The camera
カメラ映像記憶部12は、ビデオカメラ3から受信したカメラ映像を読み出し可能に記憶しておく機能を有している。例えば、カメラ映像をフレーム単位で受信した場合には、そのフレーム画像を時系列で記憶する。
The camera
カメラ映像解析部13は、カメラ映像受付部11からカメラ映像を受信(カメラ映像記憶部12からの取得も可)し、そのカメラ映像からユーザ50の顔部分や上半身部分を含む画像領域を検出し、その検出結果を後段のユーザ映像生成部14に出力する機能を有している。また、必要に応じてカメラ映像を回転等の補正を行う機能を有している。
The camera
ユーザ映像生成部14は、上記検出結果に基づき検出された画像領域をカメラ映像から抽出し、ユーザ50の顔部分や上半身部分のみから成るユーザ映像を生成して、調整データ記憶部18内の調整データに応じた処理(後述)を実行した後に、後段の映像合成部15に出力する機能を有している。
The user
映像合成部15は、ユーザ映像生成部14から出力されたユーザ映像と、映像コンテンツ入力インタフェース33を介して映像コンテンツ出力装置9から出力された映像コンテンツとをユーザ映像が表示されるように重畳する機能を有している。
The
映像出力部16は、映像合成部15で重畳されたユーザ映像及び映像コンテンツを映像出力インタフェース32から出力し、映像表示装置5に表示させる機能を有している。
The
調整データ受付部17は、調整データ入力インタフェース34を介して、リモコン端末7のユーザ操作によって選択・決定されたユーザ映像の表示位置等の調整データを受信し、調整データ記憶部18に記憶させる機能を有している。
The adjustment
調整データ記憶部18は、調整データ受付部17で受信した調整データを読み出し可能に記憶しておく機能を有している。調整データとしては、例えば、コミュニケーションモードの選択(手話モード又は口話モード)、ユーザ映像の分割の有無、エフェクトパターンの選択、ユーザ映像のサイズ、ユーザ映像の表示位置等である。
The adjustment
以上が本実施の形態に係る映像データ制御装置1の機能である。このような映像データ制御装置1としては、メモリやCPUを備えたコンピュータで実現可能である。例えば、映像表示装置5に接続されたパソコンや、テレビに搭載されたブラウザ等を用いて実現できる。また、各機能部の各処理はプログラムによって実行される。
The above is the function of the video data control apparatus 1 according to the present embodiment. Such a video data control device 1 can be realized by a computer having a memory and a CPU. For example, it can be realized using a personal computer connected to the
次に、図2を参照しながら、視聴者映像表示システムの動作について説明する。最初に、映像表示装置5の画面近くに設置されたビデオカメラ3により、任意の視聴スタイルで映像コンテンツを視聴しているユーザ50が撮影され、そのカメラ映像が映像データ制御装置1に入力される(ステップS101)。
Next, the operation of the viewer video display system will be described with reference to FIG. First, a
次に、映像データ制御装置1において、カメラ映像受付部11により、ビデオカメラ3から出力されたカメラ映像がカメラ映像入力インタフェース31を介して受信される(ステップS102)。
Next, in the video data control apparatus 1, the camera
次に、カメラ映像解析部13により、受信したカメラ映像からユーザ50の顔部分及び上半身部分の画像領域が検出される(ステップS103)。このとき、顔の傾きを検出した場合には、その顔の傾きが垂直になるように上半身を含めてカメラ映像が補正され、補正後のカメラ映像が上記検出結果(検出した画像領域の座標位置やサイズ等を含む)と共にユーザ映像生成部14に出力される。
Next, the camera
次に、ユーザ映像生成部14により、上記検出結果に基づいてビデオ映像(補正された場合は、補正後のビデオ映像)からユーザ50の顔及び上半身の画像領域が抽出され、その画像領域のみから成るユーザ映像が生成されて、映像合成部15に出力される(ステップS104)。尚、この処理の詳細については後述する。
Next, the user
次に、映像合成部15により、生成されたユーザ映像が映像コンテンツ出力装置9からの映像コンテンツにユーザ50による指定サイズ及び指定位置で重畳される(ステップS105)。
Next, the generated video image is superimposed on the video content from the video
次に、映像出力部16により、重畳されたユーザ映像及び映像コンテンツが新たな映像データとして映像出力インタフェース32を介して映像表示装置5に出力される(ステップS106)。
Next, the
最後に、映像表示装置5により、上記新たな映像データが受信され、ユーザ映像が前、映像コンテンツが後になるように画面に表示される(ステップS107)。
Finally, the new video data is received by the
尚、ステップS103で説明したユーザ50の顔部分及び上半身部分を検出する手法としては、公知の技術を利用して実現することが可能である。例えば、顔の向きに応じた特徴量の抽出と、その特徴量を用いた類似度計算を行い、算出された類似度に基づいて顔を認識する方法を用いることができる(特開2009−157766号公報)。
Note that the technique for detecting the face part and upper body part of the
また、顔の傾きの検出や映像を補正する方法についても、公知の技術を利用して実現できる。例えば、顔部品である口の輪郭線を抽出し、この輪郭線にハフ(Hough)変換を施すことで口の傾きを推定し、これにより顔の傾きを推定する方法を用いることができる(李周文、「口のエッジ画像のHough変換と両目の長さの差とを用いた顔画像の検出」、信学技報、電子情報通信学会、2006年3月、HIP2005−161、p.43−48)。 A method for detecting the tilt of the face and correcting the image can also be realized using a known technique. For example, it is possible to use a method of extracting the outline of the mouth, which is a facial component, and estimating the inclination of the mouth by performing Hough transformation on the outline, thereby estimating the inclination of the face (Li Shoubun, “Detection of face image using Hough transform of mouth edge image and length difference between eyes”, IEICE Technical Report, IEICE, March 2006, HIP2005-161, p.43- 48).
続いて、ユーザ映像生成部14の機能及び動作(上記ステップS104の詳細)について詳述する。ユーザ映像生成部14は、図3に示すように、ユーザ映像抽出部14aと、ユーザ映像分割処理部14bと、ユーザ映像エフェクト処理部14cと、ユーザ映像サイズ決定部14dと、ユーザ映像位置座標決定部14eとで構成される。
Subsequently, functions and operations (details of step S104) of the user
ユーザ50は、リモコン端末7を使用して、(1)コミュニケーションモード(手話モード又は口話モード)、(2)ユーザ映像に複数のユーザが表示された場合の表示方法(そのまま表示又は分割して1人ずつ表示)、(3)ユーザ映像に適用するエフェクト処理のパターン、(4)ユーザ映像のサイズ、(5)ユーザ映像の表示位置等の各項目について選択し決定することができる。
The
ここで、それら各項目についてユーザ50が適宜選択し、決定ボタン等の押下操作により選択・決定された調整データが送信された場合、調整データ受付部17により、調整データ入力インタフェース34を介して受信され、調整データ記憶部18に記憶される。また、調整データを複数回受信した場合には、その受信毎に前回の調整データ値を書き換えて更新する。
Here, when the adjustment data selected and determined by the
そして、上記調整データは、更新される毎にユーザ映像生成部14により取得され、以下の処理が実行される。尚、調整データ記憶部18に予め記憶されたプリセット値を用いるようにしてもよい。
The adjustment data is acquired by the user
まず、ユーザ映像抽出部14aにより、選択・決定されたコミュニケーションモードに応じた画像領域がカメラ映像から抽出され、ユーザ映像分割処理部14bに出力される(ステップS104a)。具体的には、手話モードの場合(手話によりコミュニケーションを行う場合)、顔の表情のみならず、手先や指先の表現も注視されることから、ユーザ50の顔と上半身の両者を併せた画像領域を抽出する。一方、口話モードの場合(口話によりコミュニケーションを行う場合)には、唇の動きが注視されることから、ユーザ50の顔の画像領域のみを抽出する。
First, the user video extraction unit 14a extracts an image area corresponding to the selected / determined communication mode from the camera video and outputs it to the user video division processing unit 14b (step S104a). Specifically, in the sign language mode (when communicating in sign language), not only the facial expression but also the hand and fingertip expressions are watched, so the image area that combines both the face and upper body of the
ここで、ユーザ映像の抽出パターンを図4〜図6に示す。図4〜図6は手話モードの場合を例に図示している。まず、カメラ映像に映ったユーザが1人(入力されたユーザの顔部分及び上半身部分の検出結果が1領域)であった場合、図4に示すように、検出された画像領域をそのままユーザ映像として抽出する。 Here, extraction patterns of user videos are shown in FIGS. 4 to 6 illustrate the case of the sign language mode as an example. First, when there is one user shown in the camera image (the input result of the user's face part and upper body part is one area), as shown in FIG. 4, the detected image area is directly used as the user image. Extract as
カメラ映像に映ったユーザが2人であり(検出結果が2領域)、検出結果からユーザ間のユーザ間距離d(例えば、検出された各領域の中心点間の距離等)が予め設定した値(以下、閾値)よりも小さい場合には、図5(a)に示すように、その2人分の検出領域を含む最小矩形をユーザ映像として抽出する。 There are two users shown in the camera image (detection result is two regions), and a distance d between users (for example, a distance between the center points of each detected region) based on the detection result is a preset value. If it is smaller than (hereinafter referred to as a threshold), as shown in FIG. 5A, the minimum rectangle including the detection areas for the two persons is extracted as the user video.
一方、カメラ映像に映ったユーザが2人であり(検出結果が2領域)、検出結果からユーザ間距離dが閾値よりも大きい場合には、図5(b)に示すように、検出された各画像領域から1人ずつユーザ映像を抽出する。 On the other hand, when there are two users reflected in the camera image (detection result is two regions) and the distance d between users is larger than the threshold value from the detection result, the detection is performed as shown in FIG. One user video is extracted from each image area.
カメラ映像に映るユーザが3人以上の場合(検出結果が3領域以上)には、図6に示すように、ユーザ間距離dが閾値よりも小さいユーザ同士は、それらのユーザの検出画像領域を含む最小矩形をユーザ映像として抽出し、それ以外のユーザは、そのユーザに関する検出画像領域をそのままユーザ映像として抽出する。 When there are three or more users appearing in the camera video (the detection result is three or more areas), as shown in FIG. 6, users whose user distance d is smaller than the threshold value are the detected image areas of those users. The smallest rectangle that is included is extracted as the user video, and the other users extract the detected image area relating to the user as the user video as it is.
次に、複数のユーザを含むユーザ映像が抽出された場合、ユーザ映像分割処理部14bにより、ユーザ50によって選択・決定された表示方法に基づいて、複数のユーザを含むユーザ映像としてそのまま表示するか、複数のユーザを分割して1人ずつのユーザ映像として表示するかが決定され、分割が必要ない場合には抽出されたユーザ映像がそのままユーザ映像エフェクト処理部14cに出力され、分割が必要な場合には分割処理を行った複数のユーザ映像が出力される(ステップS104b)。
Next, when a user video including a plurality of users is extracted, whether the user video including the plurality of users is displayed as it is based on the display method selected and determined by the
次に、ユーザ映像エフェクト処理部14cにより、ユーザ映像分割処理部14bから入力されたユーザ映像に対し、ユーザ50によって選択・決定されたパターンのエフェクト処理が実行され、ユーザ映像サイズ決定部14dに出力される(ステップS104c)。
Next, the effect processing of the pattern selected and determined by the
尚、ユーザ映像に施すエフェクト処理については、公知の映像処理技術を適用可能である。エフェクト処理を施していないユーザ映像を図7に示し、エフェクトをかけたユーザ画像例を図8及び図9に示す。図8は、鏡像化するエフェクト処理であり、図9は、半透明化するエフェクト処理である。 Note that a known video processing technique can be applied to the effect processing applied to the user video. FIG. 7 shows a user video that has not been subjected to the effect processing, and FIGS. 8 and 9 show examples of user images to which the effect has been applied. FIG. 8 shows an effect process for making a mirror image, and FIG. 9 shows an effect process for making it translucent.
次に、ユーザ映像サイズ決定部14dにより、ユーザ50によって選択・決定された映像サイズに基づいて、ユーザ映像エフェクト処理部14cから入力されたユーザ映像の大きさが調整され、ユーザ映像位置座標決定部14eに出力される(ステップS104d)。
Next, the user video
尚、検出結果に含まれるユーザの顔部分及び上半身部分の大きさは、ユーザとカメラ間の距離によって異なるため、ユーザ映像サイズ決定部に入力されるユーザ映像のサイズも区々であると考えられる。ユーザ映像サイズ決定部14dでは、それぞれのユーザ映像が等倍となるようサイズの調整を行うようにしてもよい。
In addition, since the size of the user's face part and upper body part included in the detection result varies depending on the distance between the user and the camera, the size of the user video input to the user video size determination unit is also considered to vary. . The user video
最後に、ユーザ映像位置座標決定部14eにより、ユーザ50によって選択・決定された映像の位置座標に基づいて、ユーザ映像サイズ決定部14dから入力されたユーザ映像の位置座標が書き換えられ、映像合成部15に出力される(ステップS104e)。
Finally, the user video position coordinate
以上より、本実施の形態によれば、映像表示装置5の映像コンテンツを視聴しているユーザ50のカメラ映像から顔及び上半身の画像領域を抽出し、手話によりコミュニケーションを行う場合には、顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行う場合には、顔の画像領域のみから成るユーザ映像を生成して、映像コンテンツに重畳して映像表示装置5に出力するので、映像コンテンツの視聴スタイルに依存することなく、映像コンテンツを視聴しながら手話や口話によるコミュニケーションを実現できる。
As described above, according to the present embodiment, when the face and upper body image areas are extracted from the camera video of the
また、本実施の形態によれば、カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成するので、カメラ映像にユーザの下半身やユーザ間等の余分な背景等が含まれてしまうのを防止できる。 In addition, according to the present embodiment, when the distance between users photographed in the camera video is larger than the threshold, a plurality of user videos are generated by dividing the plurality of users. It is possible to prevent an extra background or the like from being included.
〔第2の実施の形態〕
続いて、図10を参照しながら、第2の実施の形態に係る視聴者映像表示システムについて説明する。
[Second Embodiment]
Next, a viewer video display system according to the second embodiment will be described with reference to FIG.
第1の実施の形態では、映像コンテンツにユーザ映像を重畳して表示する形態について説明した。一方、上述した「特定の視聴スタイルに依存することなく、映像コンテンツを視聴しながら手話や口話によるコミュニケーションを行えるようにする」という効果は、ユーザ50を映したユーザ映像が映像コンテンツと共に視認可能な状態にあり、手話や口話によるコミュニケーションに必要とされる顔や上半身の領域を画像抽出して表示することにより得ることができる。
In the first embodiment, the mode in which the user video is displayed superimposed on the video content has been described. On the other hand, the above-mentioned effect of “enabling communication in sign language or spoken language while viewing video content without depending on a specific viewing style” allows the user video showing the
そこで、第2の実施の形態では、映像コンテンツにユーザ映像を重畳して表示するのに代えて、映像コンテンツを表示する映像表示装置5aの近傍にユーザ映像専用のユーザ映像用映像表示装置5bを設置し、そのユーザ映像用映像表示装置5bの画面にユーザ映像を表示するようにする。
Therefore, in the second embodiment, instead of displaying the user video superimposed on the video content, a user video
本実施の形態に係る映像データ制御装置1は、第1の実施の形態で説明した機能と基本的に同様の機能を備えるが、ユーザ映像を映像コンテンツに重畳する処理が不要であるため、図10に示したように、映像コンテンツ入力インタフェース33や映像合成部15を備える必要はない。
The video data control apparatus 1 according to the present embodiment has basically the same function as the function described in the first embodiment, but does not require a process of superimposing user video on video content. As shown in FIG. 10, it is not necessary to provide the video
一方、視聴者映像表示システムの構成要素から映像合成部15を削除したことに伴い、映像出力部16の一部機能が修正される。第1の実施の形態では、重畳されたユーザ映像及び映像コンテンツを出力して映像表示装置5aに表示させていたが、第2の実施の形態では、ユーザ映像生成部14で生成されたユーザ映像のみを出力し、映像コンテンツを表示している映像表示装置5aとは異なる上記ユーザ映像用映像表示装置5bに表示させる。
On the other hand, a part of the function of the
また、映像コンテンツ出力装置9は、映像コンテンツを映像表示装置5aに直接出力して表示させる。このような映像コンテンツ出力装置9及び映像表示装置5aは、例えば、家庭内の地上デジタルテレビが例とされる。
The video
尚、ユーザ映像用映像表示装置5bの設置場所については、映像表示装置5aの上や横、前等、映像コンテンツを視聴しているユーザの視野内に位置するように設置されていればよい。
It should be noted that the installation location of the user video
以上より、本実施の形態によれば、映像表示装置5aの映像コンテンツを視聴しているユーザ50のカメラ映像から顔及び上半身の画像領域を抽出し、手話によりコミュニケーションを行う場合には、顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行う場合には、顔の画像領域のみから成るユーザ映像を生成して、ユーザ50の視野内に位置するユーザ映像用映像表示装置5bに出力するので、映像コンテンツの視聴スタイルに依存することなく、映像コンテンツを視聴しながら手話や口話によるコミュニケーションを実現できる。
As described above, according to the present embodiment, when the face and upper body image areas are extracted from the camera video of the
1…映像データ制御装置
3…ビデオカメラ
5、5a…映像表示装置
5b…ユーザ映像用映像表示装置
7…リモコン端末
9…映像コンテンツ出力装置
11…カメラ映像受付部
12…カメラ映像記憶部
13…カメラ映像解析部
14…ユーザ映像生成部
15…映像合成部
16…映像出力部
17…調整データ受付部
18…調整データ記憶部
31…カメラ映像入力インタフェース
32…映像出力インタフェース
33…映像コンテンツ入力インタフェース
34…調整データ入力インタフェース
50…ユーザ
S101〜S107、S104a〜S104e…ステップ
DESCRIPTION OF SYMBOLS 1 ... Video
Claims (5)
前記カメラ映像から前記ユーザの顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、前記顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、前記顔の画像領域のみから成るユーザ映像を生成するユーザ映像生成手段と、
前記ユーザ映像が表示されるように前記ユーザ映像を前記映像コンテンツに重畳する映像合成手段と、
前記重畳されたユーザ映像及び映像コンテンツを前記映像表示装置に出力する映像出力手段と、を有し、
前記ユーザ映像生成手段は、
前記カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成する
ことを特徴とする映像データ制御装置。 A camera video reception means for receiving from a video camera a camera video of a user who is shot from a screen side of a video display device capable of displaying video content and viewing the video content in an arbitrary viewing style;
Extract the face and upper body of the image area of the user from the camera image, depending on the selected determined mode by the user, if the mode for communication with sign language consists of only the image area of the face and upper body In the case of a mode in which user video is generated and spoken communication is performed, user video generation means for generating a user video consisting only of the face image area;
Video composition means for superimposing the user video on the video content so that the user video is displayed;
Video output means for outputting the superimposed user video and video content to the video display device ,
The user video generation means includes
A video data control device that generates a plurality of user videos obtained by dividing a plurality of users when a distance between users photographed in the camera video is larger than a threshold .
前記カメラ映像から前記ユーザの顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、前記顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、前記顔の画像領域のみから成るユーザ映像を生成するユーザ映像生成手段と、
前記ユーザの視野内に位置する他の映像表示装置に前記ユーザ映像を出力する映像出力手段と、を有し、
前記ユーザ映像生成手段は、
前記カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成する
ことを特徴とする映像データ制御装置。 A camera video reception means for receiving from a video camera a camera video of a user who is shot from a screen side of a video display device capable of displaying video content and viewing the video content in an arbitrary viewing style;
Extract the face and upper body of the image area of the user from the camera image, depending on the selected determined mode by the user, if the mode for communication with sign language consists of only the image area of the face and upper body In the case of a mode in which user video is generated and spoken communication is performed, user video generation means for generating a user video consisting only of the face image area;
Video output means for outputting the user video to another video display device located within the field of view of the user ,
The user video generation means includes
A video data control device that generates a plurality of user videos obtained by dividing a plurality of users when a distance between users photographed in the camera video is larger than a threshold .
映像コンテンツを表示可能な映像表示装置の画面側から撮影され、前記映像コンテンツを任意の視聴スタイルで視聴しているユーザのカメラ映像をビデオカメラから受信するカメラ映像受付ステップと、A camera video reception step for receiving from a video camera a camera video of a user who is photographed from a screen side of a video display device capable of displaying video content and viewing the video content in an arbitrary viewing style;
前記カメラ映像から前記ユーザの顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、前記顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、前記顔の画像領域のみから成るユーザ映像を生成するユーザ映像生成ステップと、In the mode in which the user's face and upper body image areas are extracted from the camera image, and communication is performed in sign language according to the mode selected and determined by the user, the image area includes only the face and upper body image areas. In the case of a mode in which user video is generated and spoken communication is performed, a user video generation step of generating a user video consisting only of the face image area;
前記ユーザ映像が表示されるように前記ユーザ映像を前記映像コンテンツに重畳する映像合成ステップと、A video composition step of superimposing the user video on the video content so that the user video is displayed;
前記重畳されたユーザ映像及び映像コンテンツを前記映像表示装置に出力する映像出力ステップと、を有し、A video output step of outputting the superimposed user video and video content to the video display device,
前記ユーザ映像生成ステップでは、In the user video generation step,
前記カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成するWhen the distance between users captured in the camera video is larger than a threshold, a plurality of user videos are generated by dividing the plurality of users.
ことを特徴とする映像データ制御方法。And a video data control method.
映像コンテンツを表示可能な映像表示装置の画面側から撮影され、前記映像コンテンツを任意の視聴スタイルで視聴しているユーザのカメラ映像をビデオカメラから受信するカメラ映像受付ステップと、A camera video reception step for receiving from a video camera a camera video of a user who is photographed from a screen side of a video display device capable of displaying video content and viewing the video content in an arbitrary viewing style;
前記カメラ映像から前記ユーザの顔及び上半身の画像領域を抽出し、ユーザにより選択し決定されたモードに応じて、手話によりコミュニケーションを行うモードの場合には、前記顔及び上半身の画像領域のみから成るユーザ映像を生成し、口話によりコミュニケーションを行うモードの場合には、前記顔の画像領域のみから成るユーザ映像を生成するユーザ映像生成ステップと、In the mode in which the user's face and upper body image areas are extracted from the camera image, and communication is performed in sign language according to the mode selected and determined by the user, the image area includes only the face and upper body image areas. In the case of a mode in which user video is generated and spoken communication is performed, a user video generation step of generating a user video consisting only of the face image area;
前記ユーザの視野内に位置する他の映像表示装置に前記ユーザ映像を出力する映像出力ステップと、を有し、A video output step of outputting the user video to another video display device located within the field of view of the user,
前記ユーザ映像生成ステップでは、In the user video generation step,
前記カメラ映像に撮影されたユーザ間の距離が閾値よりも大きい場合、複数のユーザを分割した複数のユーザ映像を生成するWhen the distance between users captured in the camera video is larger than a threshold, a plurality of user videos are generated by dividing the plurality of users.
ことを特徴とする映像データ制御方法。And a video data control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012230774A JP5894055B2 (en) | 2012-10-18 | 2012-10-18 | VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012230774A JP5894055B2 (en) | 2012-10-18 | 2012-10-18 | VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014082704A JP2014082704A (en) | 2014-05-08 |
JP5894055B2 true JP5894055B2 (en) | 2016-03-23 |
Family
ID=50786499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012230774A Expired - Fee Related JP5894055B2 (en) | 2012-10-18 | 2012-10-18 | VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5894055B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6030945B2 (en) * | 2012-12-20 | 2016-11-24 | 日本電信電話株式会社 | Viewer video display control device, viewer video display control method, and viewer video display control program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6128287A (en) * | 1984-07-18 | 1986-02-07 | Hiroshi Ono | Information transmission device utilizing telephone set |
US6980333B2 (en) * | 2001-04-11 | 2005-12-27 | Eastman Kodak Company | Personalized motion imaging system |
TWI276357B (en) * | 2002-09-17 | 2007-03-11 | Ginganet Corp | Image input apparatus for sign language talk, image input/output apparatus for sign language talk, and system for sign language translation |
JP2005109669A (en) * | 2003-09-29 | 2005-04-21 | Casio Comput Co Ltd | Display system, terminal, and terminal containing bag |
JP2012085009A (en) * | 2010-10-07 | 2012-04-26 | Sony Corp | Information processor and information processing method |
JP6030945B2 (en) * | 2012-12-20 | 2016-11-24 | 日本電信電話株式会社 | Viewer video display control device, viewer video display control method, and viewer video display control program |
-
2012
- 2012-10-18 JP JP2012230774A patent/JP5894055B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014082704A (en) | 2014-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5594850B2 (en) | Alternative reality system control apparatus, alternative reality system, alternative reality system control method, program, and recording medium | |
JP5138833B2 (en) | Image generating apparatus, method, and integrated circuit | |
JP2019525305A (en) | Apparatus and method for gaze tracking | |
US20120169583A1 (en) | Scene profiles for non-tactile user interfaces | |
US20120301030A1 (en) | Image processing apparatus, image processing method and recording medium | |
JP2013115644A (en) | Display device and display method | |
US20130300934A1 (en) | Display apparatus, server, and controlling method thereof | |
KR101855939B1 (en) | Method for operating an Image display apparatus | |
JP2016213674A (en) | Display control system, display control unit, display control method, and program | |
JP2023001324A (en) | computer program for video coding | |
JP2013115527A (en) | Video conference system and video conference method | |
KR20120020006A (en) | Method for displaying graphical user interface and portable terminal thereof | |
KR20150146067A (en) | Video display device and operating method thereof | |
JP5599063B2 (en) | Display control apparatus, display control method, and program | |
EP3561570A1 (en) | Head-mounted display apparatus, and visual-aid providing method thereof | |
JP2012173683A (en) | Display control device, information display apparatus, and display control method | |
JP5894055B2 (en) | VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM | |
KR102313306B1 (en) | Image display apparatus, and mobile termial | |
JP6224465B2 (en) | Video distribution system, video distribution method, and video distribution program | |
US11138794B2 (en) | Apparatus, computer program and method | |
CN113875227A (en) | Information processing apparatus, information processing method, and program | |
US9253477B2 (en) | Display apparatus and method for processing image thereof | |
JP2011234139A (en) | Three-dimensional audio signal generating device | |
JP2016213675A (en) | Remote communication system, and control method and program for the same | |
US20150326936A1 (en) | Display apparatus and controlling method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5894055 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |