JP2010206307A - 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム - Google Patents

情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム Download PDF

Info

Publication number
JP2010206307A
JP2010206307A JP2009047133A JP2009047133A JP2010206307A JP 2010206307 A JP2010206307 A JP 2010206307A JP 2009047133 A JP2009047133 A JP 2009047133A JP 2009047133 A JP2009047133 A JP 2009047133A JP 2010206307 A JP2010206307 A JP 2010206307A
Authority
JP
Japan
Prior art keywords
display
user
image
unit
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009047133A
Other languages
English (en)
Other versions
JP5208810B2 (ja
Inventor
Akitsugu Ueno
晃嗣 上野
Nobuhiro Shimogoori
信宏 下郡
Sogo Tsuboi
創吾 坪井
Yoshiaki Nishimura
圭亮 西村
Akira Kumano
明 熊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009047133A priority Critical patent/JP5208810B2/ja
Priority to US12/712,649 priority patent/US8514262B2/en
Publication of JP2010206307A publication Critical patent/JP2010206307A/ja
Application granted granted Critical
Publication of JP5208810B2 publication Critical patent/JP5208810B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】視線情報を用いた自然なコミュニケーションを容易に実現する。
【解決手段】第1ユーザの画像の入力を受付ける受付部111と、第2ユーザを含む表示対象物を表す表示画像をディスプレイ103に表示する表示制御部124と、第1ユーザの画像から第1ユーザの視線を検出する視線検出部112と、検出された視線に基づいて第1ユーザが注視している表示画像を認識する注視物認識部113と、第1ユーザの頭部モデルを生成するモデル生成部115と、頭部モデルに投影するテクスチャを生成するテクスチャ生成部116と、認識された表示画像によって表される表示対象物を識別する識別情報と頭部モデルとテクスチャとを送信する送信部130と、を備えた。
【選択図】図1

Description

本発明は、インターネットなどのネットワークを介し、会話相手をディスプレイに表示してネットワーク会議を行うネットワーク会議システム、当該ネットワーク会議システムを構成する情報処理装置、情報処理装置で実行される情報処理方法および情報処理プログラムに関する。
ディスプレイ、スピーカ、カメラ、マイク等を備えた端末が、インターネットやISDN(Integrated Services Digital Network)を介して複数接続され、ユーザ同士がこれらの端末を用いて会議を行うネットワーク会議システムが普及している。このようなネットワーク会議システムは、以下のような基本原理で動作する。まず、第一の端末に備えたカメラやマイクを用いて第一のユーザの映像や音声を入力する。そして、入力した情報を第二の端末に備えたディスプレイやスピーカに出力して第二のユーザに伝える。この動作を相互に行うことで、第一のユーザと第二のユーザとのコミュニケーションを成立させることができる。この場合、表示ディスプレイに一つの仮想会議空間が表示されるシステムや、タイル状に各参加者の映像が表示されるシステムなどが存在する。
一方、コミュニケーション行為において、非言語情報を用いるノンバーバルコミュニケーションの重要性が認識されるようになっている。そして、ネットワーク会議のような遠隔コミュニケーションでは、多くの非言語情報が欠落することが指摘されている。非言語情報の欠落により、例えば参加者が発言の交替(ターンテイキング)をうまく制御できなくなるため、会話がスムーズに進まず、会議の質に悪影響を与える。
このため、特にアイコンタクト(視線一致)を中心に、非言語情報の回復を図るため、従来のネットワーク会議システムでは、以下のような二種類の試みが行われてきた。
一つ目の試みとして、カメラ中心がディスプレイに表示される会話相手の位置と異なるために起きる視差効果を効果的に排除する技術が提案されている(例えば、特許文献1、特許文献2)。しかし、この方法では、複数ユーザ間での情報(例えば「誰が誰を見ているか」)をどのように表現するかという問題を解決できず、会議用途としては実用的ではない。
もう一つの試みは、アイコンコンタクト(視線一致)要求対象の明確化とアイコンコンタクトの迅速な実現ある。例えば、特許文献3では、複数ユーザが利用した場合、レイアウトとカメラ位置を変更することで視線一致を表現する技術が提案されている。また、特許文献4では、ユーザ頭部をモデル化した上で、上記特許文献2の仮想カメラと同様の手法により、視差効果を排除する技術が提案され、さらに、別ユーザを見ているユーザ頭部を、その方向に90度回転させる手法が提案されている。さらに、特許文献5では、表示されたユーザ間の距離に応じた映像表示を行い、資料への注目も実現する技術が提案されている。
特開平8−195945号公報 特開平11−355804号公報 特許第3292248号公報 特開平8−237629号公報 特開平8−256316号公報
コミュニケーション行為において、非言語情報を用いるノンバーバルコミュニケーションの重要性であるが、ネットワーク会議のような遠隔コミュニケーションでは、多くの非言語情報が欠落する。欠落する非言語情報の中でも重要なものが、「相手が自分を見ているか」「相手が何を見ているか」などを表す視線情報である。
これに対し、特許文献3の方法では、複雑な光学系を用いるため、安価な構成が難しいという問題があった。また、表示されたユーザ間の距離に応じた表現になっていないため、視線情報は必ずしも明確でなく、不自然であるという問題があった。
また、特許文献4の方法は、安価な構成が可能であるが、やはり表示されたユーザ間の距離に応じた自然な表現になっていない。さらに、特許文献5の方法では、事前に取得した映像を切り替えて表示しているため、事前に膨大な参照用映像を録画しておき、各端末に配信することが必要となる。また、実際の会話時のユーザ状態を反映させることができないため、表情や着衣の差異などが再現されず、不自然な映像となる。
本発明は、上記に鑑みてなされたものであって、複数ユーザが参加するネットワーク会議で、視線情報を用いた自然なコミュニケーションを容易に実現可能とする情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システムを提供することを目的とする。
上述した目的を達成するために、本発明は、少なくとも1つの外部装置とネットワークを介して接続された情報処理装置であって、前記情報処理装置のユーザを表す第1ユーザの画像の入力を受付ける受付部と、前記外部装置のユーザである第2ユーザを含む表示対象物を表す表示画像を表示部に表示する表示制御部と、受付けられた前記第1ユーザの画像から前記第1ユーザの視線を検出する視線検出部と、検出された前記視線に基づいて、前記表示部に表示された表示画像のうち、前記第1ユーザが注視している表示画像を認識する認識部と、前記第1ユーザの頭部モデルである第1頭部モデルを生成するモデル生成部と、前記第1頭部モデルに投影する画像である第1テクスチャを生成するテクスチャ生成部と、認識された表示画像によって表される表示対象物を識別する第1識別情報と、前記第1頭部モデルと、前記第1テクスチャと、を前記外部装置に送信する送信部と、を備えることを特徴とする。
また、本発明は、上記装置で実行することができる方法およびプログラムである。
また、本発明は、第1ユーザが使用する第1情報処理装置と、前記第1情報処理装置とネットワークを介して接続され、第2ユーザが使用する第2情報処理装置と、を備えるネットワーク会議システムであって、前記第1情報処理装置は、第1表示部と、前記第1ユーザの画像の入力を受付ける受付部と、前記第2ユーザを含む表示対象物を表す表示画像を前記第1表示部に表示する第1表示制御部と、受付けられた前記第1ユーザの画像から前記第1ユーザの視線を検出する視線検出部と、検出された前記視線に基づいて、前記第1表示部に表示された表示画像のうち、前記第1ユーザが注視している表示画像を認識する認識部と、前記第1ユーザの頭部モデルである第1頭部モデルを生成するモデル生成部と、前記第1頭部モデルに投影する画像である第1テクスチャを生成するテクスチャ生成部と、認識された表示画像によって表される表示対象物を識別する第1識別情報と、前記第1頭部モデルと、前記第1テクスチャと、を前記第2情報処理装置に送信する送信部と、を備え、前記第2情報処理装置は、第2表示部と、前記表示対象物ごとに、前記第2表示部に表示する表示画像の位置を記憶する記憶部と、前記第1識別情報と、前記第1頭部モデルと、前記第1テクスチャと、を前記第1情報処理装置から受信する受信部と、前記第1ユーザの表示画像の位置を表すユーザ位置と、前記第1識別情報で表される表示対象物の表示画像の位置を表す注視物位置と、を前記記憶部から読み出し、前記ユーザ位置から前記注視物位置へ向かう方向を表す情報である視線情報を生成する視線情報生成部と、前記第1テクスチャを前記第1頭部モデルに投影した画像であって、生成された前記視線情報が表す方向を前記第1頭部モデルの視線方向とする画像を、前記第1ユーザを表す表示画像として生成する画像生成部と、生成された前記第1ユーザの表示画像を前記第2表示部に表示する第2表示制御部と、を備えること、を特徴とする。
本発明によれば、複数ユーザが参加するネットワーク会議で、視線情報を用いた自然なコミュニケーションを容易に実現することができるという効果を奏する。
図1は、本実施の形態にかかるネットワーク会議システムの構成を示すブロック図である。 図2は、レイアウト記憶部に記憶されるデータのデータ構造の一例を示す図である。 図3は、本実施の形態における注視物情報生成処理の概要を説明するための図である。 図4は、本実施の形態における注視物情報生成処理の全体の流れを示すフローチャートである。 図5は、本実施の形態における更新情報生成処理の全体の流れを示すフローチャートである。 図6は、本実施の形態における視線情報生成処理の全体の流れを示すフローチャートである。 図7は、視線情報生成を説明するための画面例を示す図である。 図8は、本実施の形態におけるアバターモデル更新処理の全体の流れを示すフローチャートである。 図9は、表示ユーザの表示画像に対する視線の修正量を判断するための規定範囲を説明する図である。 図10は、瞳孔の修正時に用いる修正量を求める曲線の一例を表す図である。 図11は、本実施の形態を適用したネットワーク会議システムで表示される画面の具体例を示す図である。 図12は、本実施の形態にかかる情報処理装置のハードウェア構成を示す説明図である。
以下に添付図面を参照して、この発明にかかる情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システムの最良な実施の形態を詳細に説明する。
本実施の形態にかかるネットワーク会議システムは、標準的なビデオカメラおよびディスプレイ装置を用いて各ユーザの注視対象を認識し、アバターモデルを用いた3次元CG(Computer Graphics)手法によって各ディスプレイ上のレイアウト情報に従った注視関係を再現する。
アバターモデルとは、ネットワーク会議システムに参加している各ユーザをモデル化した画像である。この画像は、ネットワーク会議システムを構成する各端末(情報処理装置)のディスプレイ上に、各ユーザを表す表示画像として表示される。後述するように、アバターモデルは、例えば予め定められた人間の頭部モデルに、各ユーザの映像から取得したテクスチャを投影する(貼り付ける)ことにより生成することができる。
図1は、本実施の形態にかかるネットワーク会議システム10の構成を示すブロック図である。図1に示すように、ネットワーク会議システム10は、複数の端末である情報処理装置100a、100bが、インターネットやISDNなどのネットワーク300を介して接続された構成となっている。なお、ネットワーク300はインターネットやISDNに限られるものではなく、従来から用いられているあらゆるネットワーク形態により構成することができる。
情報処理装置100a、100bは、ネットワーク会議システム10に参加する各ユーザが利用する端末であり、それぞれ同様の構成となっている。なお、以下では、図示しないユーザ1が情報処理装置100aを使用し、図示しないユーザ2が情報処理装置100bを使用しているものとする。情報処理装置100aと情報処理装置100bとは対称の関係にあるため、情報処理装置100aから情報処理装置100bへデータが送信される場合、逆に情報処理装置100bから情報処理装置100aへデータが送信される場合が存在する。以下では、情報処理装置100aから情報処理装置100bへのデータが送信される場合を例に構成を説明する。また、以下では、情報処理装置100a、100bを単に情報処理装置100という場合がある。
図1に示すように、情報処理装置100は、情報入力部101と、レイアウト記憶部102と、ディスプレイ103と、送信情報生成部110と、映像生成部120と、送信部130と、受信部140とを備えている。
なお、情報入力部101、レイアウト記憶部102、およびディスプレイ103以外の構成部は、電子回路等のハードウェアであっても良く、相当の機能を備えるソフトウェアモジュールであっても良い。また、外部のコンピュータ上に備えるソフトウェアであっても良い。以下では簡単のため、各情報処理装置100内に備えるものとして説明する。
情報入力部101は、ユーザの画像(映像)、音声等の情報を入力するハードウェア装置である。情報入力部101は、例えば、カメラおよびマイクなどにより構成することができる。情報入力部101は、ユーザ1の映像を撮像し、任意の方法でエンコードされた動画情報または連続静止画情報として出力する。エンコードの方法としては、ネットワーク会議で良く用いられるH.261、H.263などを適用できるが、その他の方法であっても良い。
レイアウト記憶部102は、ディスプレイ103に表示される情報のレイアウト情報を保持する。レイアウト情報は、ディスプレイ103上での、複数の対話相手それぞれを表示する表示領域の位置とサイズ、対話相手それぞれのアバターモデルをレンダリングする際の視点を意味する仮想カメラ情報、および共有資料を表示する表示領域の位置とサイズを含む。各ユーザが、各ユーザの嗜好に応じてレイアウト情報を指定するように構成してもよい。
図2は、レイアウト記憶部102に記憶されるデータのデータ構造の一例を示す図である。図2に示すように、レイアウト記憶部102は、対話相手であるユーザおよび共有資料を含む表示対象物を識別する識別情報である対象物IDと、表示領域の座標値と、表示領域のサイズと、仮想カメラ情報と、を含むレイアウト情報を記憶している。レイアウト情報がディスプレイ103に反映される仕組みは後述する。
なお、レイアウト記憶部102は、HDD、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
図1に戻り、ディスプレイ103は、各種情報を表示する液晶ディスプレイなどの表示装置である。例えば、ディスプレイ103は、対話中の複数の相手を表す映像を表示する。
送信情報生成部110は、ネットワーク会議システム10に参加している他の情報処理装置100などの外部装置に対して送信する情報を生成する。送信情報生成部110は、受付部111と、視線検出部112と、注視物認識部113と、特徴量検出部114と、テクスチャ生成部116と、モデル生成部115と、更新情報生成部117と、を備えている。
視線検出部112は、入力されたユーザの映像を解析することにより、ユーザ1の視線を検出し、検出した視線の方向を表す情報を含む視線情報を出力する。このような技術としては、例えば特許第3361980号のような、ユーザ映像を分析してユーザの視線を取得する方法が知られている。視線情報としては、例えばユーザ1の視線方向を表す世界座標系のベクトル(視線ベクトル)を用いることができる。また、ユーザ1の両眼の中点位置を世界座標系の位置座標で表した視線情報を用いてもよい。さらに、ディスプレイ平面を延長した平面と視線との交点を、ディスプレイ平面上に張られた任意の2次元座標系における点座標として表した視線情報を出力しても良い。
注視物認識部113は、視線検出部112によって得られた視線情報と、レイアウト記憶部102が保持するレイアウト情報とから、ユーザ1が注視している表示対象物である注視物を認識し、注視物の対象物IDと、注視点座標とを含む注視物情報を出力する。注視点座標とは、注視物近傍に設定された座標系上での注視点の座標値を表す。
特徴量検出部114は、情報入力部101によって得られた動画像(映像)からユーザ1の表情の特徴を表す特徴量を検出して出力する。特徴量は、表情を構成する顔パーツの特徴点位置で表すことができる。こうした特徴点としては、左右の口角、目尻、および眉の位置が挙げられる。このような特徴点を検出する技術としては、例えば特開2008−3749号公報で提案されている技術などを適用できる。
モデル生成部115は、ユーザ1の3次元CGモデル(アバターモデル)生成に必要な人間の頭部モデルを提供する。頭部モデルは、一般的な3次元ワイヤーフレームモデルに加え、表情の特徴量を適用するための、各顔パーツがワイヤーフレームモデルのいずれの部分に相当するかを表す情報、および、視線ベクトルを計算するための始点となる頭部を代表する点座標一つを含む。頭部モデルは一般的な人間の頭部に合わせて作られたものでも良いし、ユーザごとに測定されたデータを用いても良い。また、頭部モデルは事前に用意されたものを使い続けても良いし、必要に応じてシステム利用中に更新されるものであっても良い。
テクスチャ生成部116は、モデル生成部115が提供する3次元ワイヤーフレームモデルに加えることによりユーザの映像に近い映像を作り出せるように調整されたピクセル単位の画像データ片群をテクスチャとして出力する。具体的には、テクスチャ生成部116は、まず、情報入力部101によって得られた映像からユーザ1の顔を認識する。そして、テクスチャ生成部116は、認識した顔の画像データと生成された頭部モデルとを照合することにより、頭部モデルに貼り付ける画像データ片群であるテクスチャを生成して出力する。
更新情報生成部117は、他の情報処理装置100が表示するユーザ1のアバターモデルを更新するためのアバターモデル更新情報を生成する。具体的には、更新情報生成部117は、モデル生成部115、特徴量検出部114、およびテクスチャ生成部116がそれぞれ出力する、頭部モデル、表情の特徴量、およびテクスチャを含むアバターモデル更新情報を生成する。
送信部130は、外部装置に対して各種情報を送信する。例えば、送信部130は、注視物認識部113によって出力された注視物情報や、更新情報生成部117によって出力されたアバターモデル更新情報を、ネットワーク会議システム10に参加している他の情報処理装置100に対して送信する。なお、送信部130は、アバターモデル更新情報を送信する際、頭部モデル更新の有無と通信帯域の制限に基づくタイミングに沿ってデータを送信する。図1の例では、情報処理装置100aの送信情報生成部110が生成した情報が、情報処理装置100aの送信部130によって、情報処理装置100bに対して送信される。
上述のように、情報を入力する側の装置である情報処理装置100aと情報を出力する側の装置である情報処理装置100bとの間はネットワーク300で接続されている。そして、注視物認識部113が出力する注視物情報、および更新情報生成部117が出力するアバターモデル更新情報は、ネットワーク300を介して伝送される。
伝達の際の詳細な方式は何であっても良い。例えば、多地点接続されたネットワーク会議においては、P2P(Peer to Peer)方式であっても良いし、中央サーバであるMCU(Multipoint Control Unit)を用いた構成であっても良い。また、ネットワークはTCP/IP方式でも良いし、ISDN網であっても良い。
以下に、情報処理装置100aから送信された情報を受信する情報処理装置100bで実行される機能について説明する。
受信部140は、外部装置から各種情報を受信する。例えば、受信部140は、注視物情報およびアバターモデル更新情報を、ネットワーク会議システム10に参加している他の情報処理装置100から受信する。
映像生成部120は、受信した情報にしたがって、ディスプレイ103に表示するユーザ1の表示画像(アバターモデル)を生成する。映像生成部120は、視線情報生成部121と、表示画像生成部122と、合成部123と、表示制御部124と、を備えている。
視線情報生成部121は、受信された注視物情報と、受信されたアバターモデル更新情報に含まれる頭部モデルと、レイアウト記憶部102に記憶されているレイアウト情報とから、ディスプレイ103に表示されるべきユーザ1の視線の方向を表す情報を含む視線情報を生成する。視線情報生成部121は、例えばディスプレイ座標系上の2次元ベクトル(視線ベクトル)として視線情報を生成して出力する。
表示画像生成部122は、受信されたアバターモデル更新情報と視線情報生成部121から得られた視線情報とから、適切な視線を表現するユーザ1のアバターモデルを、ユーザ1の表示画像として生成する。表示画像生成部122が生成するアバターモデルは、一般的な3次元CG手法で用いられる人物描写に用いる情報であり、ワイヤーフレームモデル情報とテクスチャ画像情報とを含む。
合成部123は、対話相手である複数のユーザそれぞれに対して表示画像生成部122が生成するアバターモデル群を、レイアウト記憶部102に記憶されているレイアウト情報に応じて、一つの映像に合成する。なお、合成部123は、映像を合成するときに、一般的な手法によるアバターモデルの3次元CGレンダリングを実行する。合成部123が、最終的な映像に合成する際に、一般的なウィンドウシステムで用いられる、2次元的なウィンドウのタイルレイアウトや重ね合わせを用いて映像を合成してもよい。
表示制御部124は、合成部123によって合成された映像をディスプレイ103に表示する処理を制御する。
以上のような各構成部の機能により、図1で示すネットワーク会議システム10は、ユーザ2に対し、ユーザ1の視線がいずれの方向を向いているかという情報を、どのような画面レイアウトであっても、ユーザ1のアバターモデルの視線を修正することで映像として正しく伝えることができる。
次に、このように構成された本実施の形態にかかる情報処理装置100による注視物情報生成処理について図3および図4を用いて説明する。図3は、本実施の形態における注視物情報生成処理の概要を説明するための図である。
同図に示す空間上の矩形平面200は、視線検出部112によって検出可能な視線の領域と、ディスプレイ矩形平面205を無限に延長した平面とが交差する領域を示す。座標軸201および座標軸202は、ディスプレイ矩形平面205を無限に延長した平面上に張られた直交座標系を構成する座標軸の一例である。
同図には図示していないが、視線検出部112は、情報入力部101によって撮像されたユーザ203の映像から、ユーザ203の視線204を検出し、例えば視線204と矩形平面200との交点208を視線情報として出力する。具体的には、視線検出部112は、座標軸201、202で張られる座標系上での交点208の座標値を出力する。
注視物認識部113は、予め既知である注視候補物から、実際に注視されている注視物を認識する。まず、視線検出部112が出力した交点208がディスプレイ矩形平面205に含まれるか否かを判断する。同図では、交点208がディスプレイ矩形平面205に含まれているので、注視物認識部113は、さらにレイアウト情報を用いて、交点208が、いずれの注視候補物に含まれるかを判断する。具体的には、注視物認識部113は、矩形ウィンドウとして図示される、ディスプレイ103に表示された注視候補物の一つ一つと交点208との当たり判定を行い、交点208が含まれる注視候補物を認識する。
同図では、交点208が矩形ウィンドウ206に含まれているため、注視物認識部113は、矩形ウィンドウ206に表示されている表示対象物の対象物IDと、直交する座標軸209および座標軸210で張られる矩形ウィンドウ206内の正規化座標系に変換された交点208の座標値とを、注視物情報として出力する。
対象物IDは、ネットワーク会議システム10全体で共通の符号であれば、どのようなものでも良い。注視候補物は、例えば会議に参加している他のユーザの映像、書類などの共有資料、および、チャットウィンドウなどである。視線検出部112が、3次元的な情報を出力できる場合、さらに机上の紙書類、試作品、および、別に備えたホワイトボードなどが、注視候補物となっても良い。
次に、注視物情報生成処理の流れについて図4を用いて説明する。図4は、本実施の形態における注視物情報生成処理の全体の流れを示すフローチャートである。
まず、視線検出部112が、受付部111によって入力された映像からユーザの視線を検出し、検出した視線を表す視線情報を出力する(ステップS301)。視線情報は、前述のように、3次元的な点とベクトル(視線ベクトル)の組であっても良いし、既知平面上の2次元座標値であっても良い。
次に、注視物認識部113は、視線情報を用いて、ユーザの視線とディスプレイ矩形平面との当たり判定を行う(ステップS302)。ここでの当たり判定は、平面と視線ベクトルとが交わるか否かを判定することに相当する。
そして、注視物認識部113は、ユーザの視線がディスプレイ103を向いているか、それ以外の部分を意味する外部環境を向いているかを判断する(ステップS303)。
ユーザの視線がディスプレイ103以外の外部環境を向いている場合(ステップS303:NO)、注視物認識部113は、注視物情報として、外部環境を表す対象物IDと、正規化された2次元座標値を出力する(ステップS304)。2次元座標値は、ユーザの眼球の位置(ユーザ眼球位置)からのユーザ視線の方向を表すものであり、例えばユーザ眼球位置を原点とする3次元極座標値から半径方向成分(長さに関する量)を取り除いたものなどである。
ユーザがディスプレイ103の方向を向いている場合(ステップS303:YES)、注視物認識部113は、ディスプレイ103内の全ての注視候補物について、注視候補物がディスプレイ103上に占める領域と、ユーザの視線との当たり判定を行う(ステップS305)。
なお、注視候補物とは、ディスプレイ103に表示されている表示対象物のうち、ユーザが注視している注視物の候補となる表示対象物を意味する。また、ここでの当たり判定は、平面と視線ベクトルとが交わる点である注視点が、ディスプレイ平面上に表示されている各注視候補物の表示領域内に含まれるか否かを判定することに相当する。
そして、注視物認識部113は、当たりとなる注視候補物が存在するか、すなわち、注視点が含まれる注視候補物が存在するか否かを判断する(ステップS306)。
当たりとなる注視候補物が存在しない場合(ステップS306:NO)、ユーザの視線が外部環境を向いているものとし、外部環境を表す対象物IDと2次元座標値とを注視物情報として出力する。(ステップS304)。
当たりとなる注視候補物(以下、注視物という)が存在する場合(ステップS306:YES)、注視物認識部113は、まず、注視点の位置を、注視物がディスプレイ103上で表示される表示領域に対して正規化された2次元座標値に変換する(ステップS307)。例えば、注視物が他のユーザの映像であり、矩形ウィンドウに表示されている場合、矩形ウィンドウをX−Yの2次元座標系とし、矩形ウィンドウ内の注視点の位置を表す座標値を0.0〜1.0の値で正規化する。すなわち、ウィンドウ内の全ての座標値は、(0,0)〜(1,1)で示される。
最後に、注視物認識部113は、注視物情報として、注視物の対象物IDと、ステップS306で導出された2次元座標値(正規化2次元座標値)を出力する(ステップS308)。
以上のような処理により、注視物認識部113はユーザが注視している対象である注視物を認識し、符号化して出力することができる。
次に、アバターモデル更新情報を生成する更新情報生成処理の流れについて図5を用いて説明する。図5は、本実施の形態における更新情報生成処理の全体の流れを示すフローチャートである。
まず、特徴量検出部114が、ユーザの映像からユーザの表情の特徴量を検出する(ステップS501)。次に、モデル生成部115が、ユーザの頭部モデルを生成する(ステップS502)。次に、テクスチャ生成部116が、ユーザの映像からユーザの顔を認識する(ステップS503)。次に、テクスチャ生成部116が、ユーザの顔の認識結果から、頭部モデルに適用するテクスチャを生成する(ステップS504)。
そして、更新情報生成部117が、モデル生成部115により生成された頭部モデル、特徴量検出部114により検出された特徴量、および、テクスチャ生成部116により生成されたテクスチャを含むアバターモデル更新情報を生成し(ステップS505)、更新情報生成処理を終了する。
次に、視線情報生成部121による視線情報生成処理の流れについて図6および図7を用いて説明する。図6は、本実施の形態における視線情報生成処理の全体の流れを示すフローチャートである。また、図7は、視線情報生成を説明するための画面例を示す図である。
なお、図7は、図示しない5人目の会議参加者(参加者Eとする)であるユーザの情報処理装置100bのディスプレイ103に表示される画面例を表している。同図の画面例では、ネットワーク会議に参加している4人のユーザである参加者A〜Dの映像がタイル状にレンダリングされている。以下では、参加者Eが利用する情報処理装置100bの視線情報生成部121で実行される場合を例に説明する。
まず、視線情報生成部121は、ディスプレイ103に映像をレンダリングするユーザ(以下、表示ユーザという)を決定する(ステップS601)。ここでは、図7の矩形領域501にレンダリングされる参加者Aを当該表示ユーザとして決定したと仮定して説明する。
視線情報生成部121は、表示ユーザの注視物情報を、当該表示ユーザが使用する情報処理装置100aの注視物認識部113から受信する(ステップS602)。注視物情報は、前述のように、外部環境を含む注視物の対象物IDと、正規化された2次元座標値とを含む。次に、視線情報生成部121は、対象物IDにより、注視物が外部環境であるか否かを判断する(ステップS603)。
注視物が外部環境である場合(ステップS603:YES)、視線情報生成部121は、外部環境であることを表す符号を視線情報として出力する(ステップS604)。一方、注視物が外部環境でない場合(ステップS603:NO)、視線情報生成部121は、注視物が情報処理装置100bのローカルユーザである参加者Eか否かを判断する(ステップS605)。
注視物が参加者Eである場合(ステップS605:YES)、ローカルユーザであることを表す符号と、ステップS602で受信した注視物情報に含まれる正規化2次元座標値とを、視線情報として出力する(ステップS606)。
注視物が参加者Eでない場合(ステップS605:NO)、視線情報生成部121は、情報処理装置100bのディスプレイ103での当該注視物の位置情報(注視物位置)を情報処理装置100bのレイアウト記憶部102から取得する(ステップS607)。視線情報生成部121は、例えば、注視物がディスプレイ103に表示される他の参加者の映像である場合、その映像がレンダリングされる領域の位置情報を取得する。ここでは、図7の参加者Cが注視物であったとする。この場合、視線情報生成部121は、矩形領域502の位置情報を取得する。
次に、視線情報生成部121は、注視物情報として得られている注視物の矩形領域内での正規化2次元座標値から、ディスプレイ座標系における2次元座標値を表す注視点座標を算出する(ステップS608)。ここでは、参加者Cの映像内の点504が矩形内の正規化座標値として指定されている。したがって、視線情報生成部121は、ディスプレイ103上での矩形領域502の表示位置とサイズとから、点504のディスプレイ座標系での2次元座標値(注視点座標)を算出する。仮に正規化座標値が(0.7,0.3)、ディスプレイ103上の矩形領域502の左下の点が(400,400)、幅が300、高さが250であるとすれば、ディスプレイ座標系における点504の座標値は(610,475)である。
さらに、視線情報生成部121は、ディスプレイ103で当該表示ユーザを表示する位置(ユーザ位置)およびサイズを取得する(ステップS609)。視線情報生成部121は、位置およびサイズを情報処理装置100bのレイアウト記憶部102から取得する。
また、視線情報生成部121は、表示ユーザのアバターモデルの頭部位置を取得する(ステップS610)。頭部位置とは、頭部モデルから生成されるアバターモデルを表示する位置を決定するための情報である。例えば、両眼の中点の位置を頭部位置として用いることができる。
視線情報生成部121は、頭部位置を取得するために、まず表示ユーザが使用する情報処理装置100から受信したアバターモデル更新情報に含まれる頭部モデルから、頭部モデルの両眼の中点を表す3次元座標値を取得する。そして、視線情報生成部121は、レイアウト記憶部102に記憶されているアバターモデルレンダリング用の仮想カメラ情報から、取得した3次元座標値をディスプレイ座標系へ投影した2次元座標値に変換することにより頭部位置を取得する。
図7の例の場合、視線情報生成部121は、参加者Aが表示される矩形領域501の位置とサイズをレイアウト記憶部102から取得し、点503の映像中の座標値を頭部位置として取得する。
最後に、視線情報生成部121は、ステップS608と同様の方法によりディスプレイ座標系に変換された点503から、注視点である点504までの2次元ベクトルである視線ベクトル505をディスプレイ座標系上で算出し、視線情報として出力する(ステップS611)。
次に、表示画像生成部122が表示ユーザのアバターモデルを更新するアバターモデル更新処理の一例を、図8のフローチャート、図9および図10を用いて説明する。
図8は、本実施の形態におけるアバターモデル更新処理の全体の流れを示すフローチャートである。図9は、表示ユーザの表示画像(アバターモデル)に対する視線の修正量を判断するための規定範囲(閾値)を説明する図である。また、図10は瞳孔の修正時に用いる修正量を求める曲線の一例を表す図である。
図8に示すように、表示画像生成部122は、表示ユーザが使用する情報処理装置100aの更新情報生成部117からアバターモデル更新情報を受信する(ステップS801)。また、表示画像生成部122は、視線情報生成部121から、生成された視線情報を取得する(ステップS802)。
次に、表示画像生成部122は、視線情報として注視物が外部環境であることを示す符号が入力されているか否かを判断する(ステップS803)。外部環境を示す符号が視線情報として取得されている場合(ステップS803:YES)、表示画像生成部122は、アバターモデルを修正せずに(ステップS804)、アバターモデル更新処理を終了する。
注視物が外部環境であることを示す符号が視線情報として取得されていない場合(ステップS803:NO)、表示画像生成部122は、注視物が情報処理装置100bのローカルユーザ(参加者E)であることを示す符号が視線情報として取得されているか否かを判断する(ステップS805)。
ローカルユーザであることを示す符号が取得されている場合(ステップS805:YES)、表示画像生成部122は、表示ユーザのアバターモデルに含まれる目のモデル内での瞳孔の位置のみを修正する(ステップS806)。なお、表示画像生成部122は、表示ユーザの表示画像から注視物の表示画像までの距離に相当する視線ベクトルの大きさを入力し、瞳孔位置の修正量を出力する所定の関数を用いて、表示ユーザの瞳孔位置の修正量を算出する。そして、表示画像生成部122は、瞳孔の初期位置(例えば目の中央)から、視線ベクトルが示す方向に、算出した修正量に相当する分だけ瞳孔を移動させることにより、瞳孔の位置を修正する。
図10は、修正量を求める関数の一例を示している。同図の例では、視線ベクトルの大きさ(長さ)に従って瞳孔の修正量が単調増加している。視線ベクトルの長さが0.0のとき、瞳孔の修正量は0.0となる。すなわち、瞳孔位置は修正せず、アバターモデルの視線はカメラ正面を向くことになる。視線ベクトルが大きくなるに従い瞳孔の修正量が大きくなり、最大で1.0となる。この場合、瞳孔位置は目の端に至ることになる。
一方、注視物が外部環境でもローカルユーザでもない場合、注視物はディスプレイ103上に存在することになる。
すなわち、ステップS805で、ローカルユーザであることを示す符号が取得されていない場合(ステップS805:NO)、表示画像生成部122は、まず、ステップS802で取得した視線情報に含まれる視線ベクトルの大きさが予め定められた閾値以下であるか否かを判断する(ステップS807)。図9で示す規定範囲702は、ユーザ701の視線ベクトルの大きさが閾値以内である範囲を表している。表示画像生成部122は、視線ベクトルがこの規定範囲702内に含まれるか否かを判断する。
視線ベクトルの大きさが閾値以下である場合(ステップS807:YES)、表示画像生成部122は、瞳孔位置を修正するほか、頭部姿勢も小さく修正する(ステップS808)。なお、頭部姿勢の小さい修正とは、例えば、注視物が存在する方向に、後頭部が現れない程度に頭部モデルを回転させることを意味する。
頭部姿勢の小さい修正を行うことで、瞳孔の動きが不自然にならないようにしながら、撮像したユーザの映像に含まれない後頭部を表示する必要を無くすことができる。このような技術としては、例えばモーションポートレート株式会社のモーションポートレート技術が知られている。
視線ベクトルの大きさが閾値より大きい場合(ステップS807:NO)、表示画像生成部122は、瞳孔位置を修正するほか、頭部姿勢を大きく修正する(ステップS809)。なお、頭部姿勢の大きい修正とは、例えば、後頭部が現れるか否かに関係なく、視線ベクトルの大きさに応じた分だけ、注視物が存在する方向に頭部モデルを回転させることを意味する。
この場合、事前に構築した3次元の頭部モデルに対して、表示ユーザの映像が反映できる部分については当該映像をテクスチャとして使用し、反映できない部分については予め与えられたテクスチャを使用する、というような手法を用いることができる。
次に、表示画像生成部122は、受信したアバターモデル更新情報に含まれる表情の特徴量を表示ユーザのアバターモデルに適用することにより、特徴量に対応する表情を有するようにアバターモデルを修正する(ステップS810)。なお、適用する特徴量は、利用する頭部モデルによって異なる。このため、特徴量検出部114は、モデル生成部115が生成する頭部モデルに応じた特徴量を検出する。
次に、表示画像生成部122は、受信したアバターモデル更新情報に含まれるテクスチャを、アバターモデルに適用することによりアバターモデルを修正する(ステップS811)。
以上に説明した手順により、与えられた視線情報に従ってユーザ映像を修正し、ユーザの視線情報を映像的に正しく表現することが可能となる。また、ステップS810、ステップS811で示すように、実際の会話時のユーザの表情や映像を反映させたアバターモデルを生成することができるため、ユーザが意識することなく自然なコミュニケーションを実現することができる。
次に、本実施の形態を適用したネットワーク会議システム10で表示される画面の具体例を図11を用いて説明する。同図では、参加者A〜Dがネットワーク会議に参加している例が示されている。参加者それぞれ一台の情報処理装置100を利用しており、ディスプレイ103上のレイアウトは各人の嗜好によって異なっている。
同図の下部に示すように、参加者Aは参加者Bを注視し、参加者Bは参加者Aを注視し、参加者Cは参加者Bを注視し、参加者Dは共有資料を注視しているものとする。本実施の形態の手法を用いれば、同図に示すように各参加者が利用する情報処理装置100それぞれのディスプレイ103上で、これらの注視関係を再現することができる。
従来の技術では、このような状況で、誰が誰を見ているか等の視線情報を全員に正しく伝達することは不可能であった。仮想カメラ技術を用いれば、閲覧者と映像内の人物の視線の角度に応じた映像を提示することが可能であるが、他参加者の視線が動くたびにカメラ位置が変更されるのは非常に不自然である。
一方、本実施の形態の手法によれば、情報を入力する側の装置で参加者の注視物を認識し、情報を出力する側の装置でディスプレイ103上のレイアウトに基づいた視線情報を再生成することができる。これにより、図11に示すように、全ての端末における全ての他参加者像が正しく、かつ自然に視線情報を提示することができ、円滑なノンバーバルコミュニケーションを行うことが可能となる。
なお、情報処理装置100を利用するユーザ自身の映像が表示されるネットワーク会議システムの場合は、ユーザ自身の映像を修正しないものとしても良い。
また、情報入力部101は、特許文献2のような仮想カメラ機能を用いて、ユーザ映像を仮想的にディスプレイ中心線から撮った映像に変換しても良い。
また、テクスチャ生成部116は、実際のユーザの映像から生成するテクスチャの代わりに、予め与えられたテクスチャ映像を出力しても良い。その場合、合成部123が、ライブ映像ではないことを示す記号または文字列を映像に表示するように構成してもよい。また、逆に、実際のユーザ映像を用いている場合に、ライブ映像であることを示す記号または文字列を表示するように構成しても良い。より具体的には、テクスチャがユーザの映像から生成されたテクスチャであるか、予め与えられた固定テクスチャであるかを表すテクスチャ種別を、送信部130および受信部140により送受信し、このテクスチャ種別に応じてライブ映像であること、またはライブ映像ではないことを示す記号等を表示するように構成してもよい。
さらに、画面レイアウトは、タイル状ではなく、複数の参加者を一つのウィンドウにオーバーレイさせて表示するようなものや、仮想的な会議室映像であっても良い。その場合は、注視物は、注視点に最も近い参加者が選択される。
このように、本実施の形態にかかるネットワーク会議システムでは、標準的なビデオカメラおよびディスプレイ装置を用いて各ユーザの注視対象を認識し、アバターモデルを用いた3次元CG手法によって各ディスプレイ上のレイアウトに従った注視関係を再現することができる。これにより、仮想会議空間方式およびタイル表示方式の双方において、視線情報を用いた自然なコミュニケーションを手軽に行うことができる。
また、特許文献5のように事前に映像を準備する必要がなく、実際の会話時のユーザの映像を反映させたアバターモデルを表示することができるため、ユーザが意識することなく自然なコミュニケーションを容易に実現することができる。また、このときにユーザの映像自体ではなく、ユーザをモデル化した頭部モデルや、この頭部モデルに貼り付ける画像(テクスチャ)のみを送信すればよいため、データ伝送量が過大となるのを回避することができる。
次に、本実施の形態にかかる情報処理装置のハードウェア構成について図12を用いて説明する。図12は、本実施の形態にかかる情報処理装置のハードウェア構成を示す説明図である。
本実施の形態にかかる情報処理装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、HDD(Hard Disk Drive)、CD(Compact Disc)ドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置と、各部を接続するバス61を備えており、通常のコンピュータを利用したハードウェア構成となっている。
本実施の形態にかかる情報処理装置で実行される情報処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施の形態にかかる情報処理装置で実行される情報処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態にかかる情報処理装置で実行される情報処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
また、本実施の形態の情報処理プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
本実施の形態にかかる情報処理装置で実行される情報処理プログラムは、上述した各部(送信情報生成部、映像生成部、送信部、受信部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU51(プロセッサ)が上記記憶媒体から情報処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上述した各部が主記憶装置上に生成されるようになっている。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
10 ネットワーク会議システム
51 CPU
52 ROM
53 RAM
54 通信I/F
61 バス
100a、100b 情報処理装置
101 情報入力部
102 レイアウト記憶部
103 ディスプレイ
110 送信情報生成部
111 受付部
112 視線検出部
113 注視物認識部
114 特徴量検出部
115 モデル生成部
116 テクスチャ生成部
117 更新情報生成部
120 映像生成部
121 視線情報生成部
122 表示画像生成部
123 合成部
124 表示制御部
130 送信部
140 受信部
300 ネットワーク

Claims (18)

  1. 少なくとも1つの外部装置とネットワークを介して接続された情報処理装置であって、
    前記情報処理装置のユーザを表す第1ユーザの画像の入力を受付ける受付部と、
    前記外部装置のユーザである第2ユーザを含む表示対象物を表す表示画像を表示部に表示する表示制御部と、
    受付けられた前記第1ユーザの画像から前記第1ユーザの視線を検出する視線検出部と、
    検出された前記視線に基づいて、前記表示部に表示された表示画像のうち、前記第1ユーザが注視している表示画像を認識する認識部と、
    前記第1ユーザの頭部モデルである第1頭部モデルを生成するモデル生成部と、
    前記第1頭部モデルに投影する画像である第1テクスチャを生成するテクスチャ生成部と、
    認識された表示画像によって表される表示対象物を識別する第1識別情報と、前記第1頭部モデルと、前記第1テクスチャと、を前記外部装置に送信する送信部と、
    を備えることを特徴とする情報処理装置。
  2. 前記表示対象物ごとに、前記表示部に表示する表示画像の位置を記憶する記憶部と、
    前記外部装置の表示部に表示された表示画像のうち、前記第2ユーザが注視している表示画像によって表される表示対象物を識別する第2識別情報と、前記第2ユーザの頭部モデルである第2頭部モデルと、前記第2頭部モデルに投影する画像である第2テクスチャと、を前記外部装置から受信する受信部と、
    前記第2ユーザの表示画像の位置を表すユーザ位置と、前記第2識別情報で表される表示対象物の表示画像の位置を表す注視物位置と、を前記記憶部から読み出し、前記ユーザ位置から前記注視物位置へ向かう方向を表す情報である視線情報を生成する視線情報生成部と、
    前記第2テクスチャを前記第2頭部モデルに投影した画像であって、生成された前記視線情報が表す方向を前記第2頭部モデルの視線方向とする画像を、前記第2ユーザを表す表示画像として生成する画像生成部と、をさらに備え、
    前記表示制御部は、生成された前記第2ユーザの表示画像を前記表示部に表示すること、
    を特徴とする請求項1に記載の情報処理装置。
  3. 前記受信部は、さらに、前記第2ユーザの表情の特徴を表す特徴量を受信し、
    前記画像生成部は、受信した前記特徴量が表す特徴の表情を有する前記第2頭部モデルに前記第2テクスチャを投影し、生成された前記視線情報が表す方向を前記第2頭部モデルの視線方向とする画像を、前記第2ユーザを表す表示画像として生成すること、
    を特徴とする請求項2に記載の情報処理装置。
  4. 前記第2頭部モデルは、瞳孔を含む目のモデルを含み、
    前記画像生成部は、前記目のモデル内での瞳孔の位置を修正することにより、生成された前記視線情報が表す方向を前記第2頭部モデルの視線方向とすること、
    を特徴とする請求項2に記載の情報処理装置。
  5. 前記画像生成部は、さらに、前記第2頭部モデルの姿勢を修正することにより、生成された前記視線情報が表す方向を前記第2頭部モデルの視線方向とすること、
    を特徴とする請求項2に記載の情報処理装置。
  6. 前記画像生成部は、
    前記ユーザ位置および前記注視物位置の間の距離と、予め定められた閾値とを比較し、前記距離が前記閾値以下であるときの前記姿勢の修正量を、前記距離が前記閾値より大きいときの前記姿勢の修正量より小さくすること、
    を特徴とする請求項5に記載の情報処理装置。
  7. 前記受信部は、さらに、前記第2テクスチャが、前記第2ユーザの画像から生成されたテクスチャであるか、予め定められた固定テクスチャであるかを表すテクスチャ種別を受信し、
    前記表示制御部は、さらに、前記テクスチャ種別に基づいて、前記第2テクスチャが前記第2ユーザの画像から生成されたテクスチャであることを表す画像、または、前記第2テクスチャが前記固定テクスチャであることを表す画像を、前記第2ユーザの表示画像に対応づけて表示すること、
    を特徴とする請求項2に記載の情報処理装置。
  8. 前記受信部は、さらに、前記第2ユーザが前記外部装置の表示部の外部を注視していることを表す第3識別情報を受信し、
    前記画像生成部は、前記第3識別情報が受信された場合に、前記第2テクスチャを前記第2頭部モデルに投影した画像であって、前記第2頭部モデルの視線方向を修正しない画像を、前記第2ユーザを表す表示画像として生成すること、
    を特徴とする請求項2に記載の情報処理装置。
  9. 前記画像生成部は、前記第2識別情報と前記第1ユーザを識別する前記第1識別情報とが一致する場合に、前記第2テクスチャを前記第2頭部モデルに投影した画像であって、前記第2頭部モデルの視線方向を修正しない画像を、前記第2ユーザを表す表示画像として生成すること、
    を特徴とする請求項2に記載の情報処理装置。
  10. 受付けられた前記第1ユーザの画像から前記第1ユーザの表情の特徴を表す特徴量を検出する特徴検出部をさらに備え、
    前記送信部は、さらに、前記特徴量を前記外部装置に送信すること、
    を特徴とする請求項1に記載の情報処理装置。
  11. 前記テクスチャ生成部は、受付けられた前記第1ユーザの画像から前記第1テクスチャを生成すること、
    を特徴とする請求項1に記載の情報処理装置。
  12. 前記記憶部は、さらに、前記第1頭部モデルに投影可能な予め定められたテクスチャを記憶し、
    前記テクスチャ生成部は、前記記憶部から読み出したテクスチャを前記第1テクスチャとして生成すること、
    を特徴とする請求項1に記載の情報処理装置。
  13. 前記認識部は、検出された前記視線に基づいて、認識された表示画像を表示する表示領域に対して予め定められた座標系での、前記第1ユーザが注視している注視点の座標値をさらに検出し、
    前記送信部は、さらに、前記座標値を前記外部装置に送信すること、
    を特徴とする請求項1に記載の情報処理装置。
  14. 前記表示制御部は、複数の表示対象物をそれぞれ表す複数の表示画像を、前記表示部の複数の矩形の前記表示領域のいずれかに表示し、
    前記認識部は、検出された前記視線に基づいて、前記表示領域それぞれに対して予め定められた座標系での、前記注視点の座標値を検出すること、
    を特徴とする請求項1に記載の情報処理装置。
  15. 前記認識部は、前記表示部に表示された表示画像のうち、前記注視点に最も近い表示画像を、前記第1ユーザが注視している表示画像として認識すること、
    を特徴とする請求項1に記載の情報処理装置。
  16. 前記認識部は、さらに、検出された前記視線に基づいて、前記第1ユーザが前記表示部の外部を注視していることを認識し、
    前記送信部は、さらに、前記第1ユーザが前記表示部の外部を注視していることが認識された場合に、前記第1ユーザが前記表示部の外部を注視していることを表す第3識別情報を前記外部装置に送信すること、
    を特徴とする請求項1に記載の情報処理装置。
  17. 少なくとも1つの外部装置とネットワークを介して接続された情報処理装置を、
    前記情報処理装置のユーザを表す第1ユーザの画像の入力を受付ける受付部と、
    前記外部装置のユーザである第2ユーザを含む表示対象物を表す表示画像を表示部に表示する表示制御部と、
    受付けられた前記第1ユーザの画像から前記第1ユーザの視線を検出する視線検出部と、
    検出された前記視線に基づいて、前記表示部に表示された表示画像のうち、前記第1ユーザが注視している表示画像を認識する認識部と、
    前記第1ユーザの頭部モデルである第1頭部モデルを生成するモデル生成部と、
    前記第1頭部モデルに投影する画像である第1テクスチャを生成するテクスチャ生成部と、
    認識された表示画像によって表される表示対象物を識別する第1識別情報と、前記第1頭部モデルと、前記第1テクスチャと、を前記外部装置に送信する送信部と、
    として機能させるための情報処理プログラム。
  18. 第1ユーザが使用する第1情報処理装置と、前記第1情報処理装置とネットワークを介して接続され、第2ユーザが使用する第2情報処理装置と、を備えるネットワーク会議システムであって、
    前記第1情報処理装置は、
    第1表示部と、
    前記第1ユーザの画像の入力を受付ける受付部と、
    前記第2ユーザを含む表示対象物を表す表示画像を前記第1表示部に表示する第1表示制御部と、
    受付けられた前記第1ユーザの画像から前記第1ユーザの視線を検出する視線検出部と、
    検出された前記視線に基づいて、前記第1表示部に表示された表示画像のうち、前記第1ユーザが注視している表示画像を認識する認識部と、
    前記第1ユーザの頭部モデルである第1頭部モデルを生成するモデル生成部と、
    前記第1頭部モデルに投影する画像である第1テクスチャを生成するテクスチャ生成部と、
    認識された表示画像によって表される表示対象物を識別する第1識別情報と、前記第1頭部モデルと、前記第1テクスチャと、を前記第2情報処理装置に送信する送信部と、を備え、
    前記第2情報処理装置は、
    第2表示部と、
    前記表示対象物ごとに、前記第2表示部に表示する表示画像の位置を記憶する記憶部と、
    前記第1識別情報と、前記第1頭部モデルと、前記第1テクスチャと、を前記第1情報処理装置から受信する受信部と、
    前記第1ユーザの表示画像の位置を表すユーザ位置と、前記第1識別情報で表される表示対象物の表示画像の位置を表す注視物位置と、を前記記憶部から読み出し、前記ユーザ位置から前記注視物位置へ向かう方向を表す情報である視線情報を生成する視線情報生成部と、
    前記第1テクスチャを前記第1頭部モデルに投影した画像であって、生成された前記視線情報が表す方向を前記第1頭部モデルの視線方向とする画像を、前記第1ユーザを表す表示画像として生成する画像生成部と、
    生成された前記第1ユーザの表示画像を前記第2表示部に表示する第2表示制御部と、を備えること、
    を特徴とするネットワーク会議システム。
JP2009047133A 2009-02-27 2009-02-27 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム Active JP5208810B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009047133A JP5208810B2 (ja) 2009-02-27 2009-02-27 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
US12/712,649 US8514262B2 (en) 2009-02-27 2010-02-25 Information processing apparatus and network conference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009047133A JP5208810B2 (ja) 2009-02-27 2009-02-27 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム

Publications (2)

Publication Number Publication Date
JP2010206307A true JP2010206307A (ja) 2010-09-16
JP5208810B2 JP5208810B2 (ja) 2013-06-12

Family

ID=42667108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009047133A Active JP5208810B2 (ja) 2009-02-27 2009-02-27 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム

Country Status (2)

Country Link
US (1) US8514262B2 (ja)
JP (1) JP5208810B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056308A (ja) * 2012-09-11 2014-03-27 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム、および映像コミュニケーション方法
WO2016021017A1 (ja) * 2014-08-07 2016-02-11 パイオニア株式会社 画像投射装置、制御方法、プログラム、及び記憶媒体
JP2017103801A (ja) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド 通信端末、通信端末の制御方法、通信端末の制御プログラム
WO2017098999A1 (ja) * 2015-12-07 2017-06-15 セイコーエプソン株式会社 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
JP2017534096A (ja) * 2014-08-04 2017-11-16 フェイスブック,インク. 仮想現実環境において遮られた顔部分を再構築する方法およびシステム
JP2018124457A (ja) * 2017-02-01 2018-08-09 国立大学法人静岡大学 顔画像処理装置
JP2019110535A (ja) * 2017-12-15 2019-07-04 株式会社電通国際情報サービス コミュニケーション装置及び遠隔コミュニケーションシステム
JP2020144901A (ja) * 2015-06-30 2020-09-10 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7062126B1 (ja) 2021-11-01 2022-05-02 株式会社バーチャルキャスト 端末、情報処理方法、プログラム、および記録媒体
WO2024075707A1 (ja) * 2022-10-07 2024-04-11 京セラ株式会社 システム、電子機器、システムの制御方法、及びプログラム
JP7488210B2 (ja) 2021-02-24 2024-05-21 Kddi株式会社 端末及びプログラム

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8581838B2 (en) * 2008-12-19 2013-11-12 Samsung Electronics Co., Ltd. Eye gaze control during avatar-based communication
US8678589B2 (en) * 2009-06-08 2014-03-25 Panasonic Corporation Gaze target determination device and gaze target determination method
US10268360B2 (en) * 2010-04-30 2019-04-23 American Teleconferencing Service, Ltd. Participant profiling in a conferencing system
USRE49044E1 (en) * 2010-06-01 2022-04-19 Apple Inc. Automatic avatar creation
US8562133B2 (en) * 2010-09-30 2013-10-22 Wavelight Gmbh Simulator for use in ophthalmological measurements
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
CN106961621A (zh) * 2011-12-29 2017-07-18 英特尔公司 使用化身的通信
CN104170318B (zh) 2012-04-09 2018-06-01 英特尔公司 使用交互化身的通信
WO2014115387A1 (ja) * 2013-01-28 2014-07-31 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20140354533A1 (en) * 2013-06-03 2014-12-04 Shivkumar Swaminathan Tagging using eye gaze detection
CN104345873A (zh) * 2013-08-06 2015-02-11 北大方正集团有限公司 用于网络视频会议系统的文件操作方法和装置
JP2015114970A (ja) * 2013-12-13 2015-06-22 ソニー株式会社 情報処理装置および情報処理方法
US20150169048A1 (en) * 2013-12-18 2015-06-18 Lenovo (Singapore) Pte. Ltd. Systems and methods to present information on device based on eye tracking
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
US9633252B2 (en) 2013-12-20 2017-04-25 Lenovo (Singapore) Pte. Ltd. Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
CN106576153A (zh) * 2014-01-10 2017-04-19 旋转型机器人有限公司 用于在视频会议操作期间控制机器人支架的系统及方法
US9535497B2 (en) 2014-11-20 2017-01-03 Lenovo (Singapore) Pte. Ltd. Presentation of data on an at least partially transparent display based on user focus
WO2016101131A1 (en) 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
US9740282B1 (en) * 2015-01-05 2017-08-22 Amazon Technologies, Inc. Gaze direction tracking
KR102317021B1 (ko) 2015-06-26 2021-10-25 삼성전자주식회사 디스플레이 장치 및 이의 영상 보정 방법
CN106488170B (zh) * 2015-08-28 2020-01-10 华为技术有限公司 视频通讯的方法和系统
WO2017101094A1 (en) 2015-12-18 2017-06-22 Intel Corporation Avatar animation system
EP3461125A4 (en) * 2016-05-18 2019-05-22 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US10255885B2 (en) * 2016-09-07 2019-04-09 Cisco Technology, Inc. Participant selection bias for a video conferencing display layout based on gaze tracking
EP3340013A1 (en) * 2016-12-23 2018-06-27 Alcatel Lucent A gazed object identification module, a system for implementing gaze translucency, and a related method
US10521946B1 (en) 2017-11-21 2019-12-31 Amazon Technologies, Inc. Processing speech to drive animations on avatars
US10732708B1 (en) * 2017-11-21 2020-08-04 Amazon Technologies, Inc. Disambiguation of virtual reality information using multi-modal data including speech
US11232645B1 (en) 2017-11-21 2022-01-25 Amazon Technologies, Inc. Virtual spaces as a platform
US11022794B2 (en) * 2018-12-27 2021-06-01 Facebook Technologies, Llc Visual indicators of user attention in AR/VR environment
CN110087018B (zh) * 2019-04-02 2020-11-20 福建星网智慧科技股份有限公司 一种视频会议系统的会议布局测试方法及系统
US10969863B2 (en) * 2019-05-08 2021-04-06 International Business Machines Corporation Configurable sensor array for a multi-target environment
CN113192132B (zh) * 2021-03-18 2022-07-29 魔珐(上海)信息科技有限公司 眼神捕捉方法及装置、存储介质、终端
EP4113982A1 (en) * 2021-06-30 2023-01-04 Eyeware Tech SA Method for sensing and communicating visual focus of attention in a video conference
US11798204B2 (en) 2022-03-02 2023-10-24 Qualcomm Incorporated Systems and methods of image processing based on gaze detection
US11740756B1 (en) * 2022-04-22 2023-08-29 International Business Machines Corporation Display adjustments to provide cues for improved viewer posture

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690445A (ja) * 1992-09-09 1994-03-29 Hitachi Ltd 映像入出力装置
JPH0730877A (ja) * 1993-07-12 1995-01-31 Oki Electric Ind Co Ltd 多地点間マルチメディア通信会議システム
JPH08256316A (ja) * 1995-03-17 1996-10-01 Toshiba Corp 通信会議システム
JP2002288686A (ja) * 2001-03-23 2002-10-04 Minolta Co Ltd メッセージ送信システム、メッセージ送信方法、画像データ生成システム、およびコンピュータプログラム
JP2004326179A (ja) * 2003-04-21 2004-11-18 Sharp Corp 画像処理装置、画像処理方法および画像処理プログラムならびに画像処理プログラムを記録した記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3943308A1 (de) 1989-12-29 1991-07-04 Lucas Ind Plc Verfahren zum steuern der bremsdrucke in den bremsen der hinterraeder eines zweispurigen fahrzeuges
JP3292248B2 (ja) 1991-05-29 2002-06-17 富士通株式会社 遠隔会議システム
US5500671A (en) 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence
JPH08195945A (ja) 1995-01-17 1996-07-30 Japan Aviation Electron Ind Ltd カメラ付きディスプレイ装置
JP3389102B2 (ja) 1998-06-04 2003-03-24 日本電気株式会社 ネットワーク会議画像処理装置
US6806898B1 (en) * 2000-03-20 2004-10-19 Microsoft Corp. System and method for automatically adjusting gaze and head orientation for video conferencing
JP4310916B2 (ja) * 2000-11-08 2009-08-12 コニカミノルタホールディングス株式会社 映像表示装置
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
US7532230B2 (en) * 2004-01-29 2009-05-12 Hewlett-Packard Development Company, L.P. Method and system for communicating gaze in an immersive virtual environment
US8253770B2 (en) * 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690445A (ja) * 1992-09-09 1994-03-29 Hitachi Ltd 映像入出力装置
JPH0730877A (ja) * 1993-07-12 1995-01-31 Oki Electric Ind Co Ltd 多地点間マルチメディア通信会議システム
JPH08256316A (ja) * 1995-03-17 1996-10-01 Toshiba Corp 通信会議システム
JP2002288686A (ja) * 2001-03-23 2002-10-04 Minolta Co Ltd メッセージ送信システム、メッセージ送信方法、画像データ生成システム、およびコンピュータプログラム
JP2004326179A (ja) * 2003-04-21 2004-11-18 Sharp Corp 画像処理装置、画像処理方法および画像処理プログラムならびに画像処理プログラムを記録した記録媒体

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056308A (ja) * 2012-09-11 2014-03-27 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム、および映像コミュニケーション方法
US10593025B2 (en) 2014-08-04 2020-03-17 Facebook Technologies, Llc Method and system for reconstructing obstructed face portions for virtual reality environment
JP2017534096A (ja) * 2014-08-04 2017-11-16 フェイスブック,インク. 仮想現実環境において遮られた顔部分を再構築する方法およびシステム
US10445863B2 (en) 2014-08-04 2019-10-15 Facebook Technologies, Llc Method and system for reconstructing obstructed face portions for virtual reality environment
US11238568B2 (en) 2014-08-04 2022-02-01 Facebook Technologies, Llc Method and system for reconstructing obstructed face portions for virtual reality environment
WO2016021017A1 (ja) * 2014-08-07 2016-02-11 パイオニア株式会社 画像投射装置、制御方法、プログラム、及び記憶媒体
JP2020144901A (ja) * 2015-06-30 2020-09-10 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6992839B2 (ja) 2015-06-30 2022-01-13 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
WO2017098999A1 (ja) * 2015-12-07 2017-06-15 セイコーエプソン株式会社 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
JP2017103801A (ja) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド 通信端末、通信端末の制御方法、通信端末の制御プログラム
JP2018124457A (ja) * 2017-02-01 2018-08-09 国立大学法人静岡大学 顔画像処理装置
JP2019110535A (ja) * 2017-12-15 2019-07-04 株式会社電通国際情報サービス コミュニケーション装置及び遠隔コミュニケーションシステム
JP7189406B2 (ja) 2017-12-15 2022-12-14 株式会社電通国際情報サービス コミュニケーション装置及び遠隔コミュニケーションシステム
JP7488210B2 (ja) 2021-02-24 2024-05-21 Kddi株式会社 端末及びプログラム
JP7062126B1 (ja) 2021-11-01 2022-05-02 株式会社バーチャルキャスト 端末、情報処理方法、プログラム、および記録媒体
WO2023074898A1 (ja) * 2021-11-01 2023-05-04 株式会社ドワンゴ 端末、情報処理方法、プログラム、および記録媒体
JP2023067360A (ja) * 2021-11-01 2023-05-16 株式会社バーチャルキャスト 端末、情報処理方法、プログラム、および記録媒体
WO2024075707A1 (ja) * 2022-10-07 2024-04-11 京セラ株式会社 システム、電子機器、システムの制御方法、及びプログラム

Also Published As

Publication number Publication date
US8514262B2 (en) 2013-08-20
US20100220897A1 (en) 2010-09-02
JP5208810B2 (ja) 2013-06-12

Similar Documents

Publication Publication Date Title
JP5208810B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
US12041389B2 (en) 3D video conferencing
US11563779B2 (en) Multiuser asymmetric immersive teleconferencing
Orts-Escolano et al. Holoportation: Virtual 3d teleportation in real-time
WO2020203999A1 (ja) コミュニケーション支援システム、コミュニケーション支援方法、および画像制御プログラム
US9424678B1 (en) Method for teleconferencing using 3-D avatar
US11765332B2 (en) Virtual 3D communications with participant viewpoint adjustment
JP2014233035A (ja) 情報処理装置、表示制御方法及びプログラム
He et al. Gazechat: Enhancing virtual conferences with gaze-aware 3d photos
US20230319233A1 (en) Adjusting participant gaze in video conferences
US20230281901A1 (en) Moving a direction of gaze of an avatar
US20240155074A1 (en) Movement Tracking for Video Communications in a Virtual Environment
US20230247180A1 (en) Updating a model of a participant of a three dimensional video conference call
US20230101606A1 (en) System, method and computer-readable medium for video processing
JP7062126B1 (ja) 端末、情報処理方法、プログラム、および記録媒体
Jin et al. 3D Video Conferencing via On-hand Devices
Xia Can you see me: how good is good enough in 3D teleconferencing?
WO2024144805A1 (en) Methods and systems for image processing with eye gaze redirection
JP2024518888A (ja) 仮想3d通信のための方法及びシステム
Rhemann et al. Holoportation: Virtual 3D Teleportation in Real-time

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5208810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350