JP2018056907A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2018056907A
JP2018056907A JP2016193550A JP2016193550A JP2018056907A JP 2018056907 A JP2018056907 A JP 2018056907A JP 2016193550 A JP2016193550 A JP 2016193550A JP 2016193550 A JP2016193550 A JP 2016193550A JP 2018056907 A JP2018056907 A JP 2018056907A
Authority
JP
Japan
Prior art keywords
image
subject
data display
person
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016193550A
Other languages
English (en)
Inventor
大嗣 江▲崎▼
Hirotsugu Esaki
大嗣 江▲崎▼
二木 一
Hajime Futaki
一 二木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016193550A priority Critical patent/JP2018056907A/ja
Publication of JP2018056907A publication Critical patent/JP2018056907A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 遠隔会議において互いの話者の視線位置が異なるために、臨場感が損なわれる。【解決手段】 被写体がデータを閲覧する第一のデータ表示手段と、閲覧者がデータを閲覧する第二のデータ表示手段と、を用いて、被写体の画像を取得し、第一のデータ表示手段に対する被写体の位置を計測し、第二のデータ表示手段に対する閲覧者の位置を計測し、被写体及び閲覧者の位置に従って、第二のデータ表示手段に表示する被写体を傾けた画像を生成し、第二のデータ表示手段が生成した被写体の画像を表示する。【選択図】 図4

Description

本発明は遠隔会議におけるデータ表示に関するものである。
近年、遠隔地との会議において、遠隔地の映像や互いに共有しているアプリケーションを、ユーザ自身側にあるプロジェクターでユーザ自身側のスクリーンに表示するシステムがでてきている。ここでのアプリケーションは表管理ソフトや文書作成ソフトを指す。また、遠隔地とユーザ自身側のスクリーンには同じアプリケーションが表示されており、ユーザが表示位置を操作できるようになっている。特許文献1は双方向対話型システムにおける視線一致方法に関する特許である。この文献では、遠隔地側から受信した人物映像の顔の中心を基準点として定め、ユーザ自身の顔の中心とのずれが大きいときに人物映像を平行移動する。これにより、スクリーンに表示される遠隔地の人物映像の視線とユーザ自身の視線を一致させることができる。
特開平11−75174号公報
しかし、人物映像だけでなく、遠隔地と同じアプリケーションをスクリーンに表示し、それを見ながら会話をする際には、遠隔地の人物の視線がユーザ自身の見ているアプリケーションの表示位置に一致するようになってほしい。しかし、アプリケーションの表示位置が遠隔地とユーザ自身側で異なる場合には、着目する視線の位置が異なるため顔の傾きが異なり、ずれが生じるという課題がある。しかしながら、人物映像の平行移動という手段では顔の傾きが合わないため、アプリケーションの表示位置に視線の位置を合わせることができない。そのため、異なるアプリケーションを見ているように感じてしまい、臨場感が下がる。
本発明は、上記の課題に鑑みてなされたものであり、遠隔地の人物とユーザ自身とが見ているアプリケーションが同じ場合に、同じアプリケーションを見ているように感じさせる情報処理装置を提供することを目的とする。また、その方法及びプログラムを提供することを目的とする。
本発明に係る情報処理装置は以下の構成を備える。即ち、被写体がデータを閲覧する第一のデータ表示手段と、閲覧者がデータを閲覧する第二のデータ表示手段と、被写体の画像を取得する取得手段と、第一のデータ表示手段に対する被写体の位置を計測する第一の計測手段と、第二のデータ表示手段に対する閲覧者の位置を計測する第二の計測手段と、第一の計測手段と第二の計測手段とで計測した被写体及び閲覧者の位置に従って、第二のデータ表示手段に表示する被写体を傾けた画像を生成する生成手段と、を備え、第二のデータ表示手段が前記生成手段で生成した被写体の画像を表示する。
本発明によれば、スクリーンに表示する人物画像の傾きを補正することで、遠隔地の人物の視線の位置を自分の見ているアプリケーションの表示位置に一致させ、同じアプリケーションを見ているように感じさせることができる。
実施形態1のシステムの構成例を示す 実施形態1におけるユースケースの例を示す 実施形態1におけるデータの構成例を示す 実施形態1における処理の流れを説明するためのフローチャートを示す 実施形態2におけるユースケース例を示す 実施形態3におけるユースケース例を示す 実施形態4におけるユースケース例を示す
以下、図面を参照しながら本発明を実施する形態を説明する。
<実施形態1>
本発明の第1の実施形態であるコンタクトウォール表示方法について説明する。
図1(a)はコンタクトウォールの概念図である。
コンタクトウォールは遠隔地にいる人物との会議のために、相手(遠隔地側)の映像と、アプリケーションをプロジェクターでユーザ自身側のスクリーンに表示するシステムである。このシステムは、被写体の映像とアプリケーションを互いのスクリーンに共有することで、相手があたかも隣または向かい側にいて、会話をしているかのような感覚を実現できる。閲覧者のスクリーンの上部にカメラを設置し、自分側の映像を遠隔地側に送信している。また、人物の上部にプロジェクターを設置し、遠隔地の人物と、アプリケーションをスクリーンに映し出している。遠隔地にも同様のシステムがあり、スクリーンの大きさは縦200cm、横400cmで同一とする。アプリケーションは自分側と遠隔地側で同じものが表示されているとする。
図1(b)は本システムの構成の説明図である。
カメラ101、107、ネットワーク102、サーバ103、プロジェクタ104、108、スクリーン106、110、マイク111、112、スピーカー113,114を備える。カメラ101は3台あり、ネットワーク102を介して人物105を撮影した映像をサーバ103に送信する機能を有する。同様にして、カメラ107はネットワーク102を介して人物109を撮影した映像をサーバ103に送信する機能を有する。マイク111はネットワーク102を介して人物105の発する音声をサーバ103に送信する機能を有する。同様にして、マイク112はネットワーク102を介して人物109の発する音声をサーバ103に送信する機能を有する。スピーカー113はネットワーク102を介してマイク112が送信した音声を再生する機能を有する。同様にして、スピーカー114はネットワーク102を介してマイク111が送信した音声を再生する機能を有する。サーバ103は本システムの機能を統括するものであり、受信した3枚の映像を幾何変換を施して1枚の映像に合成する機能を有する。また、映像を元にスクリーンから人物までの距離と視線位置、顔の傾きを計測し、それらの情報を用いて画像上の人物の傾きを補正する機能を有する。加えて、アプリケーションを実行し、スクリーンに表示させるための映像を生成する機能を有する。プロジェクタ104はカメラ107で撮影した映像およびアプリケーションをスクリーン106に表示する機能を有する。同様にして、プロジェクタ108はカメラ101で撮影した映像およびアプリケーションをスクリーン110に表示する機能を有する。ここでは、説明を簡単にするためカメラの設置位置、撮影方向や焦点距離などは固定とし、それらはカメラ設置情報としてサーバで管理されているものとする。
図1(c)はサーバ103のハードウェア構成の例である。
演算部131は、情報処理のための演算、論理判断等を行う。演算部131はシステムバス137を介して、それらのバスに接続された各構成要素を制御する。表示部132は、画像情報の表示を制御するコントローラ及びディスプレイである。入力部133は、ボタン、キーボード、マウス等であり、ユーザからの指示が入力される。通信部134は、LAN,3G,4G,Bluetooth(登録商標)技術等に代表されるネットワークコントローラ等であり、他の装置との接続を制御する外部通信手段である。なお同様の目的を達成できる通信方式であれば前記具体例に限らない。RAM135は、各構成要素からの各種データの一時記憶に用いられる。記憶部136は、フラッシュメモリ、HDD、光学ディスクなどの物理媒体を用い、本実施形態で実行される処理プログラム等の制御プログラムコードのほか、各種設定データ、画像データ、距離データ等を記憶する。前記の各構成要素からなるサーバ103は、入力部133からの各種の入力及び通信部134から供給されるネットワーク経由の各種入力に応じて作動する。すなわち、入力部133からの入力及び通信部134からの入力が供給されると、まず、インタラプト信号が演算部131に送られる。そして、その演算部131が記憶部136に記憶してある各種の制御信号を読出し、それらの制御信号に従って、各種の制御が行われる。また、本実施形態に係わるプログラムを格納した記憶媒体をシステムあるいは装置に供給し、そのシステムあるいは装置が、記憶媒体に格納されたプログラムコードを読み出し実行することによっても本実施形態は達成される。
図1(d)はサーバ103で人物画像の傾きを補正した画像を生成するためのモジュール構成図である。
データ取得部151は通信部134を通じて3台のカメラ101および107から3枚の人物の画像を取得してデータ保存部157に保存する。距離測定部152は3台のカメラを用いて三角測量を行い、スクリーンから顔の中心までの距離および位置を計測してデータ保存部に保存する。視線位置計測部155はデータ保存部の画像データから視線の位置を計測(視線計測)して、視線位置座標をデータ保存部に保存する。傾斜測定部158は人物の配置と視線の位置から顔の傾きを測定する。注視判定部159はアプリケーションの現在の表示範囲を取得して、視線位置がアプリケーションの表示範囲に含まれているかを判定する。アプリケーションは人物が入力部133により操作を行っており、その表示範囲の情報がサーバ103で管理されている。画像算出部153は人物105および人物109のスクリーンから顔の中心までの距離、視線位置、顔の傾きから、画像上の人物の相対的な位置および傾きを算出する。画像生成部154は算出した画像上の人物の傾きを用いて画像を生成する。データ表示部156は生成した画像をプロジェクタ104および108を用いてそれぞれスクリーン106、110に表示する。
図2はユースケースの模式図である。
(a)は本実施形態でのスクリーン106に対する人物105の立ち位置とアプリケーションの表示位置、人物の顔の傾きを示している。ここでは、アプリケーションの中心はスクリーンの左端から100cmの位置にあるものとする。また、人物105はスクリーンの左端から200cmの位置に立っていることを想定している。ここでは、簡単のために人物の上方から見た場合の顔の傾きのみを考慮した場合の説明を行う。人物105はスクリーン106の面からの垂直距離が100cmの位置に立っており、アプリケーションを見ている。このとき、人物からスクリーンに対するアプリケーション方向の角度は45度となっている。(b)は本実施形態でのスクリーンに対する人物109の立ち位置とアプリケーションの表示位置、人物の顔の傾きを示している。スクリーンの左端から27cmの位置にアプリケーションの表示範囲の中心があるものとする。また、人物109はスクリーン110の左端から200cm、スクリーンの面から垂直距離が100cmの位置からアプリケーションを見ており、人物からスクリーンに対するアプリケーション方向の角度は60度となっている。(c)は人物109の像201の傾きを補正する前の画像をスクリーン106に表示している状態を示している。(b)で示した人物109を左右対称に反転させた像201をスクリーンに表示している。ここでは、人物109はスクリーン110の左端から200cm、スクリーンの面からの垂直距離が100cmの位置に立っているため、反転させた像はスクリーン106の右端から200cm、スクリーンの面からの垂直距離が100cmの位置となる。人物105はスクリーンの左端から100cmの位置を見ているのに対して、像201はスクリーンの右端から27cmの位置を見ているように見える。このため、同じアプリケーションを見ていないように感じる。(d)は本実施形態で人物109の像201の傾きを補正した後の画像をスクリーン106に表示している状態を示している。像201の傾きを人物105が着目しているアプリケーションの表示範囲の中心に合わせるように、顔の傾きを補正している。これにより、同じアプリケーションを見ているように感じさせることができる。(e)は人物105の像202の傾きを補正する前の画像をスクリーン110に表示している状態を示している。(a)で示した人物105を左右対称に反転させた像202をスクリーンに表示しており、像の位置はスクリーン110の右端から200cm、スクリーンの面からの垂直距離が100cmの位置となる。人物109に対して像202は傾きが異なるため、視線位置が異なり、同じアプリケーションを見ていないように感じる。(f)は本実施形態で人物105の像202の傾きを補正した後の画像をスクリーン110に表示している状態を示している。像202の傾きを人物109が着目しているアプリケーションの表示範囲の中心に合わせるように、顔の傾きを補正している。これにより、同じアプリケーションを見ているように感じさせることができる。
図3はデータの構成図である。
距離データ301、304は距離測定部が測定したスクリーンから顔の中心までの距離を保持するデータである。ユーザIDと距離データで構成される。ユーザIDは個人を唯一に特定するための識別子である。
視線位置データ302、305は人物がスクリーンのどの位置を見ているかの座標を表す。視線位置データはユーザIDとx座標とy座標で構成される。ユーザIDは個人を唯一に特定するための識別子である。座標はディスプレイの左下を原点として二次元の座標系で表し、正の値を取る。
傾斜データ303、306は、図2(b)で示したスクリーンに対する人物の顔の傾きを表す。傾斜データはユーザID、顔の傾きで構成される。ユーザIDは個人を唯一に特定するための識別子である。
アプリデータ307、308はスクリーン106、110でスクリーン左端を原点としたアプリケーションの表示範囲を示したものである。アプリデータはアプリID、x1座標、y1座標、x2座標、y2座標で構成され、アプリケーションの表示範囲の左下と右上の座標を示している。アプリIDはアプリケーションを唯一に特定するための識別子である。ここでは、アプリケーションは長方形の表示領域であることを仮定している。
上述の画像上の人物の傾きの補正の処理を、フローチャートに従って説明する。
図4はコンタクトウォールに画像を表示する際の像の傾きを補正する処理を表したフローチャートである。
まず、データ取得部151が3つのカメラ101で人物105の画像データを3枚取得して、データ保存部157に保存する(S401)。次に、距離測定部152が3つのカメラのうち左右の2つのカメラを用いて、スクリーンから人物105の目と目の間の顔の中心までの距離を三角測量により測定して、距離データ301としてデータ保存部に保存する(S402)。本実施形態ではスクリーン106および110の左下に実世界座標の原点が来るようにあらかじめキャリブレーションで調整している。次に、視線位置計測部155がデータ保存部に保存されている画像から視線の位置座標を視線位置データ302としてデータ保存部に保存する(S403)。本実施形態では先行文献、特開2013−41545で用いられている技術を用い画像から視線の位置座標を求める。次に、傾斜測定部が人物105の顔の傾きを測定し、傾斜データ303としてデータ保存部に保存する(S404)。本実施形態では、スクリーンから左右の目までの距離の差に基づいて顔の傾きを求める。図2(g)を用いて説明する。まず、左目と右目の中点を通る直線に対する垂線を求める。そして、その垂線とスクリーンから顔の中心までの直線がなす角を求めることで顔の傾きが得られる。このとき、スクリーン水平方向をx軸、スクリーン垂直方向をz軸として、スクリーンの左端を原点とする。この例では、左目のx座標は200cm、z座標は110cmとなり、右目のx座標は210cm、z座標は100cmとなる。このときの、顔の傾きはarctan(1)=45度となる。S405〜S408では同様にして、人物109のスクリーンから顔までの距離を測定し、視線位置を計測し、顔の傾きを測定する。その結果、距離データ304、視線位置データ305、傾斜データ306が得られる。次に、注視判定部159がサーバ103からスクリーン106でのアプリケーションの表示範囲を表すアプリデータ307を取得し、視線位置データ302の座標が表示範囲に入っているかを判定する。同様にして、スクリーン110でのアプリケーションの表示範囲を表すアプリデータ308に視線位置データ305の座標が含まれているかを判定する(S409)。ここでは、人物105の視線位置が(100cm,100cm)でアプリケーションの表示範囲の左下が(95cm,95cm)で右上が(105cm,105cm)のため含まれている。また、人物109の視線位置が(27cm,100cm)でアプリケーションの表示範囲の左下が(25cm,95cm)で右上が(29cm,105cm)のため含まれている。含む場合には、同じアプリケーションを見るように人物109の像201の傾きを補正する。ここでは、アプリケーションの表示範囲の中心を見るように傾きを補正する。スクリーン106に映し出されるアプリケーションの表示範囲の中心は(100cm,100cm)である。画像算出部が距離データ301、304から像201の大きさを算出する(S410)。図2(h)を用いて説明する。本実施形態では奥行きのある映像をスクリーンに表示している。そのため、人物105と像201が同じ距離にある場合、像の大きさが1倍になるように制御する。次に、画像算出部153が距離データ301、視線位置データ302、傾斜データ303を用いて補正する像の傾きを算出する(S411)。本実施形態では、人物105が着目しているアプリケーションの表示範囲の中心に像201の視線位置を合わせるように傾きを補正する。ここでは、スクリーンに対する人物の立ち位置が同じであるため、像201の傾きを人物105の傾きに合わせることで視線位置を合わせることができる。そのため、顔の傾きが45度の人物105に対して、人物109は顔の傾きは60度のため、補正する像の傾きは45度となる。次に、画像生成部154は算出した像の大きさ、傾きに基づいて像201の画像データを生成する(S412)。ここでは、像の大きさを1倍、傾きを45度に補正した画像を生成する。画像の生成は公知の技術を用いて行う。S405で取得した三枚の画像データを用いて幾何変換を用いて像の補正を行い、画像を生成する。本実施形態では、人物のみを認識し、画像から切り出して補正を行い、背景に対しては補正は行わない。そして、データ表示部156が生成した画像をスクリーン106に表示する(S413)。同様にして、S414〜S417で人物105の像202を補正した画像を生成し、スクリーン110に表示する。この例では、像202の傾きは60度、大きさは1倍となるように補正する。
以上で本実施形態におけるコンタクトウォール表示方法についての説明は終わりである。
以上の説明では、画像上の人物の補正、画像の生成および表示はサーバ103が一括して行っていたが、別々のサーバをネットワークで接続して、個別に処理を行ってもよい。また、像の傾きの補正はアプリケーションの表示範囲に視線位置が含まれている場合のみ行ったが、そうでない場合はアプリケーションの表示範囲の中心と視線位置の差分量に合わせて補正してもよい。また、アプリケーションの表示範囲に視線位置が含まれていた時間に合わせて補正を行うかの判定をしてもよい。また、複数のアプリケーションが表示されている場合には、アクティブとなっているアプリケーションを対象にして上述の処理を行ってもよい。また、遠隔地側とは異なるアプリケーションを自分側で開いている場合は、そのアプリケーションを非対象として処理を進めてもよい。また、本実施形態では画像から人物を切り出して、その人物の像に対して傾きの補正を行う方法を示したが、画像全体に対して傾きを補正する処理を行ってもよい。また、画像の表示にはプロジェクターとスクリーンを用いたが、テレビやディスプレイを用いてもよい。
本実施形態によれば、人物が着目しているアプリケーションの表示範囲の中心に像の視線位置を合わせるように像の傾きを補正することで、同じアプリケーションを見ているように感じさせることができる。それにより、臨場感を増すことができる。
<実施形態2>
実施形態1では、人物105および人物109のスクリーンの左端からの距離および、垂直方向の距離が等しい場合の画像の補正方法について述べた。本実施形態では、人物105および人物109のスクリーンの左端からの距離および垂直方向の距離が異なる場合に、像の立ち位置を補正し、それに合わせて像の傾きを補正することで、相手が目の前に立っているように感じさせる方法について述べる。ハードウェアの構成例は、実施形態1と同様である。
図5は本実施形態のユースケースの模式図である。
(a)は本実施形態での人物の立ち位置の関係を示している。人物105はスクリーン106の左端を原点として(200cm,100cm)の位置にいる。同様に、人物109はスクリーン110の左端を原点として(300,50)の位置にいる。また、本実施形態では、簡単のためアプリケーションの表示範囲はスクリーン106、110で同じとし、表示範囲の中心がスクリーンの中心から100cmの位置あるものとする。(b)は本実施形態での像501の位置を補正する前の画像の表示状態を示している。この状態では、人物105に対して人物109の像501のスクリーンの端からの距離が異なるため、離れた位置にいるように感じられる。(c)は本実施形態での像501の位置を補正した後の画像の表示状態を示している。本実施形態では画像算出部153が人物105の立ち位置に人物109の像501の立ち位置を合わせるように座標を算出する。ここでは、像501の立ち位置は座標(200cm,100cm)と算出される。(d)は本実施形態での像501の傾きを補正した後の画像の表示状態を示している。実施形態1と同様に、アプリケーションの表示範囲の中心に視線が合うように、像501の傾きを補正する。したがって、この場合は像の傾きは45度となる。また、像を補正した後の背景画像は、補正前の像があった部分に関しては、三台のカメラ107で撮った画像を元に、幾何変換を用いて補完を行う。補正後に像が移動した部分に関しては、三台のカメラ107で撮った画像を元に、背景画像に重畳して表示して見えるように幾何変換を用いて行う。(e)は本実施形態での像502の位置を補正する前の画像の表示状態を示している。この状態では、人物109に対して像502が離れた位置にいるように感じられる。(f)は本実施形態での像502の位置を補正した後の画像の表示状態を示している。人物109の立ち位置に像502の位置を合わせるように補正し、座標は(300cm,50cm)となる。(g)は本実施形態での像502の傾きを補正した後の画像の表示状態を示している。アプリケーションの表示範囲の中心に視線が合うように、像501の傾きを75.9度に補正する。
以上の説明では、背景画像に関しては補正前の像のあった部分を補完し、補正後に像が移動した部分に関しては像が重畳するように構成したが、像の移動とともにその背景を移動させるように幾何変換を用いて構成してもよい。
本実施形態によれば、立ち位置が違い相手が遠くに感じられる場合でも、像の位置を自分の立ち位置に合わせるように補正し、アプリケーションの表示範囲の中心に視線が合うように傾きを補正することで、相手が近くにいるように感じさせることができる。その結果、臨場感を増すことができる。
<実施形態3>
実施形態2では、スクリーンの前の人物が一人で、立ち位置が異なる場合の傾きの補正方法について述べた。本実施形態では、スクリーンの前に複数人いる場合に、人物の立ち位置に重なりがないように表示間隔を調整して、傾きを補正する方法について述べる。ハードウェアの構成例は、実施形態1と同様である。
図6は本実施形態のユースケースの模式図である。
(a)は本実施形態での人物の立ち位置の関係を示している。ここでは、簡単のためにスクリーン106に対して一人、スクリーン110に対して二人いる場合を考える。ここでは、人物105はスクリーン106の左端を原点として(200cm,100cm)の位置にいるとする。同様に、人物601はスクリーン110の左端を原点として(300cm,100cm)、人物602は(250cm,100cm)の位置にいる。(b)は本実施形態での像の位置を補正する前の画像の表示状態を示している。この状態では、人物105に対して人物601の像603が遠い位置にいるように感じられる。これに対して、実施形態2と同様の立ち位置の補正を行うと、人物601の像603と人物602の像604が重なってしまう。(c)は本実施形態での像の位置を補正した後の画像の表示状態を示している。本実施形態ではスクリーンに水平方向の立ち位置の差に、あらかじめ定めた補正係数をかけた値を用いて、像の位置の補正を行う。それにより、人物同士が重なることを避ける。ここでは補正係数は0.3とする。この例では、人物105と像603と604のスクリーンに水平方向の立ち位置の差は100cm、50cmとなる。そのため、人物601の像の立ち位置の補正値は300cm−100cm×0.3=270cmとなり、人物602の像の立ち位置の補正値は250cm−50cm×0.3=235cmとなる。(d)は本実施形態での像の傾きを補正した後の画像の表示状態を示している。本実施形態では、アプリケーションの表示範囲の中心から像603、604までの距離と、人物からスクリーンまでの距離を用いて傾きを求める。ここでは、像603の傾きはarctan(1.7)=59.5度、同様にして像604の傾きは53.4度となる。これを用いて傾きを補正する。(e)は本実施形態での像の位置を補正する前の画像の表示状態を示している。この状態では、人物601、602に対して像605が遠い位置にいるように感じられる。(f)は本実施形態での像の位置を補正した後の画像の表示状態を示している。このとき、像は1つしかないため表示が重なる恐れがない。そのため、本実施形態では像605に対して立ち位置の最も近い、人物602と同じ座標(250cm,100cm)に像を補正する。(g)は本実施形態での像の傾きを補正した後の画像の表示状態を示している。本実施形態では、アプリケーションの表示範囲の中心に視線が合うように像の傾きを補正する。この場合、傾きは56.3度となる。
以上の説明では、立ち位置の差に補正係数をかけることで、像の位置の補正値を決定したが、一定間隔で像の表示を行うように補正値を決定してもよい。また、スクリーンに対して平面に像の位置を補正したが、垂直あるいはその両方を用いて補正を行ってもよい。また、像605の位置は立ち位置が最も近い人物602に補正したが、人物601と人物602の立ち位置の中点に補正してもよい。
本実施形態によれば、立ち位置の差に基づいて表示間隔を調整することで、画像上の人物間の重なりを防ぐことができ、違和感をなくすことができる。
<実施形態4>
実施形態2では、自分と相手がスクリーンの端から同じ位置に立っておらず、スクリーンに表示されるアプリケーションを着目している場合を想定した。本実施形態では、自分と相手がスクリーンの端から同じ位置に立っておらず、人物が物体に着目している場合を想定する。ここでの物体は人物以外のパーツなどの試作品を意味する。この場合に、人物の像を移動させて、物体を向いているように傾きを補正する。それにより、相手が近くにいて、物体を着目しているように感じさせる。ハードウェアの構成例は、実施形態1と同様である。
図7は本実施形態のユースケースの模式図である。
(a)は本実施形態での人物の立ち位置の関係を示している。人物105は(300cm,100cm)の位置にいて、物体の像がスクリーン106に映しだされている映像を見ている。人物109は(200cm,100cm)の位置にいて、物体を着目している。物体は(100cm,50cm)の位置にある。(b)は本実施形態での人物105の像701の位置を補正する前の画像の表示状態を示している。この状態では像701と人物109のスクリーン端からの位置が異なるため、遠くにいるように感じる。(c)は本実施形態での像を移動させた後の画像の表示状態を示している。像701をスクリーン端からの位置が人物109と同じ位置になるように移動させる。この例では、像を(200cm,100cm)に移動させる。そうすると、像701は物体がある位置とは別の位置を着目しているように見える。(d)は本実施形態での像の傾きを補正した後の画像の表示状態を示している。本実施形態では、像701が物体に着目しているように傾きを補正する。ここでは、物体が(100cm,50cm)、人物の像701が(200cm,100cm)にあるため、傾きをarctan(0.66)=33.6度となるように補正する。その結果、物体を着目しているように見える。
以上の説明では、人物105の像を補正する方法について述べたが、人物109の像について補正を行ってもよい。この場合、像の位置を人物105と同じ位置に補正し、像の傾きを物体の像がある方向に補正する。また、人物の像の補正に従って、物体の像の位置の補正を行ってもよい。このとき、補正後の人物の像と物体の像の距離が一定の値より大きくなる場合は補正を行わなくてもよい。また、物体を着目している場合を仮定して説明を行ったが、物体の領域を特定し、その領域に視線位置が含まれているかに基づいて、人物の像の補正を行ってもよい。
本実施形態では、人物がスクリーン端から同じ位置に立っておらず、物体に着目している場合に、画像上の人物の位置を移動させて、物体に着目するように人物の傾きを補正する。これにより、人物と人物の像がスクリーン端から同じ位置に立っていない場合でも、相手が近くにいて、物体に着目しているように感じさせることができる。これにより、臨場感を増すことができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
HDD ハードディスク

Claims (7)

  1. 被写体がデータを閲覧する第一のデータ表示手段と、閲覧者がデータを閲覧する第二のデータ表示手段と、を用いた情報処理方法であって、
    被写体の画像を取得するデータ取得工程と、
    第一のデータ表示手段に対する被写体の位置を計測する第一の計測工程と、
    第二のデータ表示手段に対する閲覧者の位置を計測する第二の計測工程と、
    第一の計測工程と第二の計測工程とで計測した被写体および閲覧者の位置に従って、第二のデータ表示手段に表示する被写体を傾けた画像を生成する生成工程と、を備え、
    第二のデータ表示手段に前記生成工程で生成した被写体の画像を表示させることを特徴とする情報処理方法。
  2. 前記第一の計測工程では、第一のデータ表示手段に対する被写体の相対的な位置および傾きを計測し、
    前記第二の計測工程では、第二のデータ表示手段に対する閲覧者の相対的な位置および傾きを計測することを特徴とする請求項1記載の情報処理方法。
  3. 被写体の画像から人物を認識する認識工程と、
    人物の視線位置を計測する視線計測工程と、を備え、
    前記第一の計測工程では第一のデータ表示手段に対する人物の相対的な傾きを前記視線位置に基づいて計測し、
    前記第二の計測工程では第二のデータ表示手段に対する閲覧者の相対的な傾きを前記視線位置に基づいて計測することを特徴とする請求項2記載の情報処理方法。
  4. 前記生成工程は、第二のデータ表示手段に対する閲覧者の配置および、第一のデータ表示手段に対する複数の被写体の配置に基づいて、第二のデータ表示手段に表示する複数の被写体の画像が重ならないように被写体の画像を移動することを特徴とする請求項1乃至3何れか1項に記載の情報処理方法。
  5. 前記認識工程ではさらに、人物以外の物体を認識し、
    第一のデータ表示手段に対する前記物体の位置を計測する第三の計測工程を更に備え、
    前記生成工程では、計測した物体の位置、被写体および閲覧者の位置に従って、第二のデータ表示手段に表示する被写体の画像を生成することを特徴とする情報処理方法。
  6. 被写体がデータを閲覧する第一のデータ表示手段と、閲覧者がデータを閲覧する第二のデータ表示手段と、
    被写体の画像を取得するデータ取得手段と、
    第一のデータ表示手段に対する被写体の位置を計測する第一の計測手段と、
    第二のデータ表示手段に対する閲覧者の位置を計測する第二の計測手段と、
    第一の計測手段と第二の計測手段とで計測した被写体および閲覧者の位置に従って、第二のデータ表示手段に表示する被写体を傾けた画像を生成する生成手段と、を備え、
    第二のデータ表示手段が前記生成手段で生成した被写体の画像を表示することを特徴とする情報処理装置。
  7. 被写体がデータを閲覧する第一のデータ表示手段と、閲覧者がデータを閲覧する第二のデータ表示手段と、を用いて、コンピュータを、
    被写体の画像を取得するデータ取得手段と、
    第一のデータ表示手段に対する被写体の位置を計測する第一の計測手段と、
    第二のデータ表示手段に対する閲覧者の位置を計測する第二の計測手段と、
    第一の計測手段と第二の計測手段とで計測した被写体および閲覧者の位置に従って、第二のデータ表示手段に表示する被写体を傾けた画像を生成する生成手段と、として機能させ、
    第二のデータ表示手段に前記生成手段で生成した被写体の画像を表示させるプログラム。
JP2016193550A 2016-09-30 2016-09-30 情報処理装置、情報処理方法及びプログラム Pending JP2018056907A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016193550A JP2018056907A (ja) 2016-09-30 2016-09-30 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016193550A JP2018056907A (ja) 2016-09-30 2016-09-30 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2018056907A true JP2018056907A (ja) 2018-04-05

Family

ID=61834200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016193550A Pending JP2018056907A (ja) 2016-09-30 2016-09-30 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2018056907A (ja)

Similar Documents

Publication Publication Date Title
US9858643B2 (en) Image generating device, image generating method, and program
US11250636B2 (en) Information processing device, information processing method, and program
JP6229314B2 (ja) 情報処理装置、表示制御方法及びプログラム
JP6330036B2 (ja) 画像処理装置及び画像表示装置
KR20140125183A (ko) 프로젝터 장착 안경 및 그 제어 방법
CN104536579A (zh) 交互式三维实景与数字图像高速融合处理系统及处理方法
US10600218B2 (en) Display control system, display control apparatus, display control method, and storage medium
JP6946684B2 (ja) 電子情報ボードシステム、画像処理装置、及びプログラム
JP2012070081A (ja) 画像表示装置、画像表示プログラム及び画像表示システム
US10778966B2 (en) Display device and method for controlling display device
JPWO2018216355A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN114286066A (zh) 投影校正方法、装置、存储介质以及投影设备
JP2011097447A (ja) コミュニケーションシステム
JPWO2018168823A1 (ja) 画像処理装置および電子機器
JP2011113206A (ja) 映像コミュニケーションシステム、及び映像コミュニケーション方法
US20210400234A1 (en) Information processing apparatus, information processing method, and program
JP5571895B2 (ja) 情報表示装置
JP2009212582A (ja) バーチャルスタジオ用フィードバックシステム
JP6308842B2 (ja) 表示システム及びプログラム
JP6124862B2 (ja) ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム
JP2020108112A (ja) 電子機器及びその制御方法
JP2018056907A (ja) 情報処理装置、情報処理方法及びプログラム
US20180203661A1 (en) Information processing device, information processing method, and program
CN111918089A (zh) 视频流处理方法、视频流显示方法、装置及设备