JPWO2017187807A1 - 情報処理端末装置 - Google Patents

情報処理端末装置 Download PDF

Info

Publication number
JPWO2017187807A1
JPWO2017187807A1 JP2018514176A JP2018514176A JPWO2017187807A1 JP WO2017187807 A1 JPWO2017187807 A1 JP WO2017187807A1 JP 2018514176 A JP2018514176 A JP 2018514176A JP 2018514176 A JP2018514176 A JP 2018514176A JP WO2017187807 A1 JPWO2017187807 A1 JP WO2017187807A1
Authority
JP
Japan
Prior art keywords
video
unit
information
information processing
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018514176A
Other languages
English (en)
Inventor
俊一 笠原
俊一 笠原
智弘 角田
智弘 角田
隆仁 右田
隆仁 右田
高橋 慧
高橋  慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017187807A1 publication Critical patent/JPWO2017187807A1/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

不動産の物件の撮像画像を送信する情報処理端末装置を提供する。映像再生装置は、トラッキング点を示すアノテーション情報を、映像提供装置に送信する。映像提供装置側では、アノテーション情報の空間的トラッキングが可能であれば、映像提供装置の現在の撮像映像上にアノテーション情報をオーバーレイ表示する。一方、アノテーション情報の空間的トラッキングが不可能な場合には映像再生装置から送信されたアノテーション情報付きの映像を、そのまま映像提供装置の表示部510に表示して、時間的及び空間的なラグを保証する。

Description

本明細書で開示する技術は、撮像画像を送信する情報処理端末装置に係り、例えば、不動産の物件の撮像画像を送信する情報処理端末装置に関する。
マンションや戸建てなど不動産の購入や賃貸契約の際には、現地に赴いて、物件の内部見学(内見)を行なうのが一般的である。しかしながら、顧客が内見を希望する物件が一箇所に集中しているとは限らず、1日に3〜4件程度の物件しか回ることができず、非効率である。
例えば、不動産物件の3次元形状データを格納する第1のデータベースと、不動産物件の内装情報を3次元形状データとして格納する第2のデータベースとをインターネットを介して閲覧可能に配置すると共に、第1及び第2のデータベースから読み出された3次元形状データに基づいて不動産物件の内部を仮想空間として表示する不動産物件販売支援システムについて提案がなされている(例えば、特許文献1を参照のこと)。このシステムによれば、住空間の3次元形状データと住空間の内装情報の3次元形状データに基づく住空間の内部を仮想空間として物件の購入者に表示することができる。
特開2001−195491号公報
本明細書で開示する技術の目的は、撮像画像を送信する情報処理端末装置を提供することにある。
本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
撮像部と、
前記撮像部により撮像された画像を送信する送信部と、
外部機器から所定の信号を受信する受信部と、
表示部と、
制御部と、
を具備し、
前記制御部は、前記所定の信号に含まれる情報と前記撮像部で現在撮像している画像との時間的又は空間的な差分に基づいて、前記情報を前記表示部に表示させる、
情報処理端末装置である。
本明細書で開示する技術の第2の側面によれば、第1の側面に係る情報処理端末装置の前記受信部は、前記外部機器で特定された対象物に対する付加情報を受信し、前記制御部は、前記時間的又は空間的な差分に基づいて前記付加情報の表示を制御するように構成されている。ここで、前記付加情報は、例えば、前記外部機器において入力されるアノテーション情報を含む。
本明細書で開示する技術の第3の側面によれば、第2の側面に係る情報処理端末装置の前記制御部は、前記対象物が前記撮像部で現在撮像している画像内でトラッキング可能か否かに基づいて、前記時間的又は空間的な差分に基づいて前記付加情報の表示を制御するように構成されている。
本明細書で開示する技術の第4の側面によれば、第2の側面に係る情報処理端末装置の前記制御部は、トラッキング可能な前記対象物を前記撮像部で現在撮像している画像上の位置に変換して、変換後の対象物に前記付加情報を表示させるように構成されている。
本明細書で開示する技術の第5の側面によれば、第2の側面に係る情報処理端末装置の前記制御部は、前記撮像部で現在撮像している画像内でトラッキング不可能な前記対象物に対する付加情報を、前記対象物が表示されている時点の映像を使って表示させるように構成されている。
本明細書で開示する技術によれば、撮像画像を送信する情報処理端末装置を提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、映像を視聴する映像視聴システム100の構成例を模式的に示した図である。 図2は、映像を視聴する映像視聴システム200の構成例を模式的に示した図である。 図3は、映像を視聴する映像視聴システム300の構成例を模式的に示した図である。 図4は、映像を視聴する映像視聴システム400の構成例を模式的に示した図である。 図5は、映像提供装置として機能することができる情報処理装置500の機能的構成を模式的に示した図である。 図6は、映像再生装置として機能することができる情報処理装置600の機能的構成を模式的に示した図である。 図7は、アーカイブ映像を視聴する仕組みを説明するための図である。 図8は、映像視聴システム100を不動産物件の内見に適用した例を示した図である。 図9は、映像視聴システム100を不動産物件の内見に適用した例を示した図である。 図10は、不動産の現地での映像提供装置の移動経路を例示した図である。 図11は、映像再生装置側で時間的及び空間的にラグのある映像に対して指示された情報を映像提供装置に通知するための処理手順を示したフローチャートである。 図12は、ユーザーのトラッキング点にアノテーション情報1201が付された映像を例示した図である。 図13は、映像提供装置の現在の映像上に、映像再生装置で付されたアノテーション情報を表示している例を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.システム概要
A−1.システム構成
図1には、映像を視聴する映像視聴システム100の構成例を模式的に示している。映像視聴システム100は、映像を提供する1台の映像提供装置101と、映像を再生する1台の映像再生装置102からなり、1対1のネットワーク・トポロジーを構成している。映像提供装置101と映像再生装置102間は、例えば無線又は有線のLAN(Local Area Network)、あるいはインターネットなどの広域ネットワークを介して相互接続されている。
映像提供装置101は、例えば不動産の物件(現地)にいるユーザー(物件の内見者、若しくは不動産会社の営業マンなど)が操作する情報端末である。あるいは、映像提供装置101は、現地に設置された定点カメラや、現地で自律動作するロボットに搭載されたカメラでもよい。また、映像再生装置102は、現地には赴かず、現地から離間した場所(例えば、不動産会社の店舗や自宅など)で物件の情報を閲覧するユーザー(例えば、不動産の購入又は賃貸の契約を検討している顧客)が操作する情報端末などである。
映像提供装置101は、映像提供装置101の設置場所を視点位置とする映像(例えば、不動産物件の現地に居る営業マンの視点映像)を撮像する撮像部を備え、その撮像映像を映像再生装置102に送信する。例えば、撮像部を1台の全天周カメラで構成してもよい。但し、全天周映像といっても、360度である必要はなく、一部の視野が欠けていてもよい(以下、同様)。
また、映像提供装置101は、マイクのような音声入力部をさらに備え、全天周映像の撮像現場の音声を集音された音声を映像と多重化して映像再生装置102に送信するようにしてもよい。例えば、不動産物件の現地に居る営業マンが、物件の立地条件や間取りなどを説明する音声を集音して、映像再生装置102に送信するようにしてもよい。
また、映像提供装置101は、表示部を備えていてもよい。表示部(若しくは、映像提供装置101自体)は、例えば透過型のヘッド・マウント・ディスプレイとして構成される。現地に居るユーザーは、このヘッド・マウント・ディスプレイを頭部に装着し、ヘッド・マウント・ディスプレイにシースルー表示される映像を適宜参照しながら、現地の撮影や物件の説明を行なう。
一方の映像再生装置102は、映像提供装置101から受信した映像を表示する表示部を備えている。映像再生装置102(若しくは、その表示部)は、例えばユーザーが頭部に装着して映像を視聴するヘッド・マウント・ディスプレイとして構成される。例えば、映像再生装置102は、映像提供装置101で撮像される全天周映像(不動産物件の室内を撮像した映像)から所定の画角を切り出して表示する。あるいは、映像再生装置102は、ドーム型ディスプレイとして構成され、映像提供装置101の設置場所で撮像される全天周映像をすべて表示するようにしてもよい。ドーム型ディスプレイの詳細に関しては、例えば、本出願人に既に譲渡されている特願2015−245710号明細書を参照されたい。あるいは、映像再生装置102は、通常の(若しくは大画面の)モニター・ディスプレイでもよい。
また、映像再生装置102は、スピーカーやヘッドホンなどの音声出力部を備え、映像提供装置101から映像と多重して送信された音声(例えば、不動産物件の現地に居る営業マンが、物件の立地条件や間取りなどを説明する音声)を、映像と併せて再生出力するようにしてもよい。
また、映像再生装置102は、マイクのような音声入力部をさらに備え、ユーザーからの音声指示を入力するようにしてもよい。例えば、映像再生装置102のユーザーは、「ベランダの眺望が観たい」、「リビングを見せて」といった音声による指示を入力することができ、このような指示が映像提供装置101に送信される。
映像提供装置101と映像再生装置102間で直接通信するようにしてもよいが、以降の説明では配信サーバー103が介在するものとする。映像提供装置101は現地で撮像した全天周映像を配信サーバー103に一旦送信する。配信サーバー103は、全天周映像、若しくは、全天周映像から切り出した所定の画角分の映像を、映像再生装置102に送信する。また、配信サーバー103は、映像提供装置101から受信する映像のアーカイブも行なう。
図1に示した映像視聴システム100は、1台の映像提供装置101と1台の映像再生装置102で1対1のネットワーク・トポロジーを構成している。例えば、特定の物件に設置された1台の映像提供装置101で撮像された映像を、不動産の店舗に設置された1台の映像再生装置102の間で視聴するという実施態様に相当する。顧客は、現地に赴かなくても多数の物件のリアル映像を実感に近い形で視聴できるので、効率的な内見を実現することができるとともに、顧客満足度が向上する。
これに対し、図2〜図4には、全天周映像を視聴する映像視聴システム100の変形例を示している。図2に示す映像視聴システム200は、1台の映像提供装置201と複数台(N台)の映像再生装置202−1、202−2、…、202−Nで1対Nのネットワーク・トポロジーを構成しており、1台の映像提供装置201で撮像される全天周映像(同一の視点位置において同じ視線方向で撮像した同じ映像)を各映像再生装置202−1、202−2、…、202−Nで同時に視聴するようになっている。例えば、特定の物件に設置された1台の映像提供装置201で撮像された物件の映像を、不動産の店舗に設置された(若しくは、不動産会社の複数の支店にそれぞれ設置された)複数台の映像再生装置202−1、202−2、…、202−Nで視聴するという実施態様に相当する。1つの物件のリアル映像を複数の顧客が共有して視聴することができるので、不動産会社にとって効率的な内見を実現することができる。
また、図3に示す映像視聴システム300は、複数台(N台)の映像提供装置301−1、301−2、…、301−Nと1台の映像再生装置302でN対1のネットワーク・トポロジーを構成しており、1台の映像再生装置302が、それぞれ異なる場所に設置された映像提供装置301−1、301−2、…、301−Nのうちいずれかから選択的に映像を受信し表示するようになっている。映像再生装置302は、映像の送信元を映像提供装置301−1、301−2、…、301−Nの中で動的に切り替えられるものとする。映像の送信元となる映像提供装置301を切り替えると、映像再生装置302で再生される(視聴できる)映像の視点位置が切り替わる(選択した映像提供装置301の設置場所に、視点位置が瞬間的に移動する)。また、映像再生装置302は、選択した映像提供装置301に対して視線方向の切り替えを指示できるものとする。例えば、不動産の店舗に設置された1台の映像再生装置302が、複数の物件にそれぞれ設置された複数台の映像提供装置301−1、301−2、…、301−Nからの映像を切り替えながら視聴するという実施態様に相当する。あるいは、1つの不動産物件の部屋毎に設置された複数台の映像提供装置301−1、301−2、…、301−Nの映像を、映像再生装置302で切り替えながら視聴するという実施態様も想定される。顧客は、各物件を移動して回らなくても一挙に各物件のリアル映像を実感に近い形で視聴できるので、効率的な内見を実現することができるとともに、顧客満足度が向上する。
また、図4に示す映像視聴システム400は、複数台(N台)の映像提供装置401−1、401−2、…、401−Nと複数台(N台)の映像再生装置402−1、402−2、…、402−NでN対Nのネットワーク・トポロジーを構成している。N対Nのネットワーク・トポロジーは、図1に示した1対1のネットワーク、図2に示した1対Nのネットワーク、並びに図3に示したN対1のネットワークを含むことができる。例えば、不動産の店舗に設置された(若しくは、不動産会社の複数の支店にそれぞれ設置された)複数台の映像再生装置402−1、402−2、…、402−Nの各々が、複数の物件にそれぞれ設置された複数台の映像提供装置401−1、401−2、…、401−Nからの映像を切り替えながら視聴するという実施態様に相当する。各顧客は、各物件を移動して回らなくても一挙に各物件のリアル映像を実感に近い形視聴できるので、効率的な内見を実現することができるとともに、顧客満足度が向上する。
映像提供装置から全天周映像を提供するのに対し、映像再生装置側では全天周ではなくいずれかの視線方向の映像を視聴する場合、映像再生装置で視聴している視線方向を「視聴覚データ」と定義して、例えば配信サーバーで視聴覚データを集中管理するようにしてもよい。また、図2や図4に示したような、1台の映像提供装置からの全天周映像を複数台の映像再生装置で視聴する場合には、各映像再生装置の視聴覚データを共有し互いに利用し合うようにしてもよい。また、配信サーバーからアーカイブ映像を配信する際に、過去の視聴覚データの集計結果を利用するようにしてもよい。
B.装置構成
B−1.映像提供装置の構成
図5には、映像視聴システム100〜400において映像提供装置として機能することができる情報処理装置500の機能的構成を模式的に示している。図示の情報処理装置500は、撮像部501と、映像符号化部503と、音声入力部504と、音声符号化部505と、多重化部(MUX)506と、通信部507と、映像復号部508と、画像処理部509と、表示部510と、音声復号部511と、音声出力部512と、制御部513を備えている。以下、各部501〜513について説明する。
撮像部501は、1眼カメラ(広角カメラや魚眼カメラを含む)、2眼のステレオカメラ、多眼の全天周カメラなどで構成される。ステレオカメラを用いれば、映像に奥行き感を付与することができる。撮像部501は、情報処理装置500を設置した場所を視点位置として、周囲を撮像する。映像符号化部503は、撮像部501が撮像した映像信号の符号化処理を行なう。
音声入力部504は、例えば小型マイクやステレオマイクなどで構成され、撮像部501と併せて配設することで、全天周映像の撮像現場の音声を集音することができる。ステレオマイクを用いれば、再生側(すなわち、映像再生装置)では、集音時の音を立体的に再構成することができる。音声符号化部505は、音声入力部504で入力した音声信号を符号化処理する。
多重化部506は、映像符号化部503及び音声符号化部505でそれぞれ符号化された符号化映像信号と符号化音声信号を多重化して、配信サーバー経由で映像再生装置へ伝送するための信号フォーマット(パケット)に成形する。
表示部510(若しくは、映像提供装置500全体)は、例えば透過型のヘッド・マウント・ディスプレイとして構成される。あるいは、表示部510(若しくは、映像提供装置500全体)は、スマートフォンやタブレットなどの(カメラ付きの)携帯情報端末として構成される。表示部510は、現地で物件を撮像するユーザーの視界に映像を重畳表示する。映像復号部508は、例えば配信サーバーから受信するアーカイブ映像を復号処理する。画像処理部509は、撮像部501で撮像された画像や、映像復号部508で復号された映像の画像認識などの処理を行ない、表示部510で表示する映像を生成する。表示部510では、ユーザーに対して、例えば移動先や移動経路などの案内情報を表示する。また、表示部510は、映像再生装置のユーザーからのコメントや、不動産の物件に関して付加される情報(間取りや建具、設備に関する質問や感想、物件に関する属性情報)など、さまざまなアノテーション情報を表示することができる。
音声復号部511は、例えば映像再生装置から受信した符号化音声信号の復号処理を行なう。音声出力部512は、復号されたベースバンドの音声信号を音声出力する。例えば、映像再生装置のユーザーからの、「ベランダの眺望が観たい」、「リビングを見せて」といった音声による指示が、現地で音声出力される。
通信部507は、映像や音声の伝送を始めとして、映像再生装置との相互通信を行なう。但し、映像再生装置との通信には配信サーバー(前述)が介在するものとする。通信部507は、例えば無線又は有線のLAN、あるいはインターネットなどの広域ネットワークを媒介として、映像再生装置や配信サーバー、その他の外部装置との相互通信を行なうものとする。
制御部513は、上記の各部501〜512の動作を統括的にコントロールする。例えば、制御部513は、映像の送信先となる映像再生装置(若しくは、視聴グループ)とのリアルタイム・コミュニケーションを実現するための処理や、表示部510にてユーザー(現地で物件の撮影を行なう物)に表示する映像の処理を行なう。また、制御部513は、映像の送信先となる映像再生装置(若しくは、視聴グループ)の属性情報に応じて提供する情報の範囲を制限するために、撮像動作や音声入力動作のオン/オフ、撮影映像に対するモザイクやマスク処理、入力音声の変調処理などを行なわせる。
B−2.映像再生装置の構成
図6には、映像視聴システム100〜400において映像再生装置として機能することができる情報処理装置600の機能的構成を模式的に示している。図示の情報処理装置600は、通信部601と、分離部(DEMUX)602と、音声復号部603と、音声出力部604と、映像復号部605と、表示部606と、集音部607と、音声符号化部608と、センサー部609と、制御部610と、外部機器インターフェース611を備えている。以下、各部601〜611について説明する。
通信部601は、映像や音声の伝送を始めとして、映像提供装置との相互通信を行なう。また、必要に応じて、通信部601を介して配信サーバー(前述)との通信が行なわれる。通信部601は、例えば無線又は有線のLAN、あるいはインターネットなどの広域ネットワークを媒介として、映像提供装置や配信サーバー、その他の外部装置との相互通信を行なうものとする。
例えば、映像を見たい場所(例えば、内見したい不動産の物件)に設置された映像提供装置に対して、通信部601から映像や音声の送信開始要求を送信する。そして、映像提供装置から、所定の信号フォーマット(パケット)に成形された伝送信号を、通信部601で受信する。また、ある映像提供装置から受信した映像を表示中(すなわち、ユーザーが視聴中)に、その視点位置で異なる視線方向を見たくなったときには、通信部601から視線方向の変更要求を送信する。また、他の映像提供装置からの映像に切り替えたいときには、映像や音声を受信中の映像提供装置に対して通信部601から送信停止要求を送信するとともに、移動先の映像提供装置に送信開始要求を通信部601から送信する。
分離部602は、映像提供装置から多重化伝送された信号を符号化映像信号と符号化音声信号に分離して、それぞれ音声復号部603と映像復号部605に分配する。
音声復号部603は、符号化音声信号を復号してベースバンドの音声信号を生成して、音声出力部604から音声出力する。音声出力部604は、モノラル、ステレオ、多チャンネルのスピーカーなどで構成される。
映像復号部605は、符号化映像信号を復号してベースバンドの映像信号を生成して、送信元の映像提供装置で撮像された映像を表示部606に表示する。表示部606(若しくは、情報処理装置600本体)は、例えばヘッド・マウント・ディスプレイ、ドーム型ディスプレイ、あるいは大画面(若しくは、通常の)モニター・ディスプレイで構成される。
集音部607は、例えば小型マイクやステレオマイクなどで構成され、ユーザーの音声などを集音する。音声符号化部608は、集音部607で入力した音声信号を符号化処理して、制御部610に出力する。ユーザーの音声は、表示部606に表示された映像に対する感想や感嘆もあれば、制御部610(若しくは、映像再生装置)に対する音声指示(例えば、全天周映像の視線方向の変更など)の場合もある。
映像再生装置のユーザーは、例えば、内見したい不動産の物件の映像を表示部606で視聴しながら、「ベランダの眺望が観たい」、「リビングを見せて」といった音声による指示を出すことができる。このようなユーザーの音声は、集音部607で集音され、音声符号化部608で符号化された後、通信部601から映像提供装置に送信される。
制御部610は、映像提供装置から受信した映像及び音声の出力を制御する。また、制御部610は、表示部606の画面へのUIやOSD(On−Screen Display)などの表示の制御や、UIやOSDに対してユーザー(視聴者)が行なった操作の処理を行なう。
センサー部609は、ユーザー(表示部606の画面に表示された映像を視聴する視聴者)の視線方向、頭部位置、又は姿勢を計測する。センサー部609は、例えば、ジャイロ・センサーと加速度センサーと地磁気センサーなど複数のセンサー素子を組み合わせて構成される(3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーなど)。センサー部609は、情報処理装置600本体(ヘッド・マウント・ディスプレイなど)と一体であってもよいし、本体に外付けされるアクセサリー部品などであってもよい。
センサー部609で検出されるユーザーの視線方向、頭部位置、又は姿勢などの動作(あるいは、頭部だけでなく、胴体や手足を使ったジェスチャー動作)は、表示部609に表示されたUIやOSDに対する操作の場合や、全天周映像のうち表示部609に表示すべき画角の指示を意味する場合がある。例えば、ユーザーの水平並びに垂直方向の首振り(右又は左を向く、見上げる、見下ろすなど)は、全天周映像における視線方向の変更指示として扱うことができる。また、ユーザーが胴体を前方や後方に傾ける動作を、現在の視線方向でのカメラのズーム操作として扱うようにしてもよい(前方に傾ければズームアップ、後方に傾ければズームダウン)。そして、センサー部609の検出結果は、制御部610に出力される。
制御部610は、センサー部609で検出されるユーザーの視線方向、頭部の水平並びに垂直方向の首振り(右又は左を向く、見上げる、見下ろすなど)、あるいは姿勢の変化に基づいて、受信中の全天周映像を見る視線方向の変更の指示を、通信部601を介して送信する。また、制御部610は、集音部607で集音されたユーザーの音声指示を、音声のまま、あるいはテキスト情報やコマンド情報に変換して、通信部601を介して映像提供装置に送信する。
また、制御部610は、ユーザーの視線方向、頭部、姿勢の動作(あるいは、頭部だけでなく、胴体や手足を使ったジェスチャー動作)が画面上のUIやOSDに対する操作であった場合には、この操作に応じて表示部606の表示映像に対する処理を実施する。
外部機器インターフェース(IF)611は、USB(Universal Serial Interface)などのインターフェース規格に則って、情報処理装置600に外部機器を接続する。例えば、情報処理装置600は、キーボードやマウス、タッチパネル、ジョイステック、ゲーム用コントローラーなどの周知の入力デバイス(いずれも図示しない)を外部機器インターフェース611に接続することができる。表示部606の画面上のUIやOSDに対する入力操作や、全天周映像の撮像位置の移動や視線変更切り替えのための指示のために、この種の入力デバイスを利用するようにしてもよい。
C.アーカイブ映像の視聴
上記A項では、映像提供装置でリアルタイムに撮像されたリアル映像を映像再生装置で視聴する仕組みについて言及した。これに対し、映像提供装置で撮像した映像を外部装置(配信サーバー)に一旦記録し、映像再生装置側ではアーカイブ映像を外部装置から視聴するという実施態様もある。
アーカイブ映像を視聴する理由はさまざまである。例えば、顧客が昼間は忙しく日が暮れてからしか不動産会社の店舗に行くことができないために、あらかじめ昼間に撮像しておいた物件のアーカイブ映像を視聴して内見を行なう場合、逆に昼間に物件のリアル映像を視聴している顧客が夜の物件の眺望を見たくなった場合など、視聴時とは異なる時間帯の物件を確認したい場合である。さらには、雨天など視聴時とは異なる天候など異なる撮像環境で撮像した物件の映像を視聴したい場合もある。付言すれば、時間帯は同じであるが他の季節の物件の様子を確認したい場合もある。あるいは、人気物件などで、特定の映像提供装置に対して多数の映像再生装置からのアクセスが集中し、伝送帯域の制限のためすべての映像再生装置にリアル映像を伝送できない場合なども挙げられる。
図7には、映像再生装置に対しては、映像提供装置からリアルタイム映像を直接送信するのではなく、外部装置に録画されたアーカイブ映像を配信する仕組みを示している。
ここで言う外部装置は、例えば、映像提供装置とは物理的に独立して設置された、映像を記録する記録サーバーである。映像再生装置側で指定された時刻若しくは時間帯の定員外として追い出された映像再生装置への映像配信を記録サーバーに委ねることによって、映像提供装置の負荷を分散することができる。また、定員外として追い出された映像再生装置は、映像提供装置の設置場所(視点位置)で撮像される映像をライブで視聴することはできないが、時間の遅延を許容する限りにおいて追体験することができる。
各映像提供装置で撮像されるリアル映像は、記録サーバーにも送信される。記録サーバーでは、受信した映像を、送信元の映像提供装置を識別する情報、又は、撮像した視点位置(映像提供装置が設置された物件や物件内の部屋)や撮像した時間帯や撮像した環境などを特定できる情報と紐付けして記録しておく。映像再生装置から、時間帯や季節、天候などの撮像環境の切り替えを指示する送信開始要求が送られてくると、映像提供装置からのリアル映像送信から、外部装置に録画されたアーカイブ映像の送信に切り替える。
D.不動産の内見
図8には、映像視聴システム100を不動産物件の内見に適用した例を示している。参照番号801は、不動産の物件(現地)にいるユーザー(物件の内見者、若しくは不動産会社の営業マンなど)であり、映像提供装置(前述)を所持若しくは装備している。一方、参照番号802は、現地には赴かず、現地から離間した場所(例えば、不動産会社の店舗や自宅など)で物件の情報を閲覧するユーザーであり、映像再生装置(前述)を用いて、映像提供装置が撮像する物件の映像を視聴している。
図9中の参照番号901で示すように、ユーザー801は物件内を歩き回りながら、物件の立地条件や間取り、設備などの説明をしたり、感想を述べたりし、さらにはドアを開けて別の部屋を見て回る。他方のユーザー802は、現地に赴かなくても物件のリアル映像を実感に近い形で視聴できるので、効率的な内見を実現することができる。すなわち、映像視聴システム100を不動産の内見に適用すると、顧客満足度が向上する。
E.時間的及び空間的なラグを伴うリアルタイム・コミュニケーション
物件で内見を行なう(若しくは、内見に同行する)ユーザー801が撮像する映像を、ユーザー802側でリアルタイムに視聴できることが好ましい。しかしながら、現実には、映像提供装置で映像を符号化して配信サーバーに送信し、映像再生装置が配信サーバーから映像を受信し復号して表示出力するまでの間には、数秒〜数十秒(例えば、40秒程度)のタイムラグ(すなわち、時間的な差分)がある。このため、映像提供装置で撮像する映像及び音声と、映像再生装置側で視聴する映像及び音声の間には、時間的及び空間的なラグ(差分)が生じてしまう。また、映像提供装置で撮像する映像及び音声と、映像再生装置で受信映像に対して付加されたアノテーション情報の間にも、時間的及び空間的なラグが生じてしまう。
時間的なラグは、映像再生装置側で視聴する映像にタイムラグがあることに他ならない。視聴する映像は、厳密にはリアルタイムではなく数秒〜数十秒前に撮像された映像である。音声についても同様にタイムラグがある。すなわち、現地での、物件の立地条件や間取り、設備などの説明、物件の感想などのユーザー801の音声を、映像再生装置側では数秒〜数十秒後に聴くことになる。また、映像再生装置で物件の映像を視聴しているユーザー802が、「ベランダの眺望が観たい」、「リビングを見せて」といった音声による指示を行なったとしても、映像提供装置で物件を撮像しているユーザー801にとっては、数秒〜数十秒前の映像に対する指示になってしまう。
また、空間的なラグは、映像提供装置が映像を撮像してから映像再生装置で映像を表示出力する数秒〜数十秒のタイムラグの間にユーザー801が図9に示したように動き回ることに起因して生じる。映像再生装置側では、映像提供装置が数秒〜数十秒前に撮像した映像を視聴することになり、映像提供装置の現在の場所で撮像している映像と一致しないことが空間的なラグである。例えば、ユーザー802が「ベランダの眺望が観たい」、「リビングを見せて」といった音声による指示を行なったとしても、ユーザー801にとっては数秒〜数十秒前に居た場所に対する指示であり、現在の場所では理解できない場合がある。例えば、「このドアを見て」のように代名詞を含むような音声指示の場合、ユーザー801が数秒〜数十秒後には既に他の部屋に移動していると、ユーザー802が指示したのとは異なるドアになってしまう。
このように、映像提供装置と映像再生装置間のリアルタイム・コミュニケーションには、時間的及び空間的なラグがある。このため、ユーザー801は、ユーザー802からの音声などによる指示を受けたとしても、指示内容を正しく理解できない場合がある。
例えば、現地の物件では、図10中の参照番号1001で示すような経路を辿って映像提供装置が撮像した映像が、配信サーバー経由で映像再生装置に送られ、映像再生装置では、40秒の時間差のために時間的及び空間的にラグのある映像が表示されるものとする。ある時刻Tでは、現地では参照番号1002で示す場所まで映像提供装置が移動している一方、映像再生装置側では、Tよりも40秒だけ遡った時刻に通過した場所1003で撮像された映像が表示されている。
時刻Tに映像再生装置のユーザーが観た映像に対して問い掛けたとしても(例えば、映像に写っている調度品(キッチンや建具など)など物件の詳細な情報に関する質問を送信したとしても)、映像提供装置側のユーザーは既に場所1003を通過して現在は場所1002まで移動しているので、何を質問されているのか分からない場合がある。特に、「これ」、「それ」といった代名詞を使って問い掛けられると、聞き手は理解し辛い。
そこで、以下では、時間的及び空間的にラグのある映像に対して指示がされた場合に、映像提供装置のユーザーに何が指示されたかを的確に通知して、映像提供装置のユーザーと映像再生装置のユーザー間におけるリアルタイム・コミュニケーションの実現を支援する技術について説明する。
図11には、映像再生装置側で時間的及び空間的にラグのある映像に対して指示された情報を映像提供装置に通知するための処理手順をフローチャートの形式で示している。但し、この処理手順は、映像提供装置側では、映像再生装置のユーザーからのコメントやアノテーション情報を表示部510で確認することができることを前提とする。
まず、映像再生装置側では、ユーザーが表示部606に映されている何らかの物体をトラッキングしていると(ステップS1101のYes)、そのトラッキング点を特定する(ステップS1102)。
ユーザーがマウスのポインターやタッチパネルなどのユーザー・インターフェースを用いてトラッキング点を指示している場合には、容易に対象物を特定することができる。また、「このドアを見て」のようにユーザーが音声でトラッキングしている物体を指示した場合には、例えばUI処理及び制御部609において、入力音声の言語解析結果と、表示部606の表示映像の画像認識結果に基づいて、トラッキング点(例えば「このドアを見て」とはどのドアを指しているのか)を特定する。
そして、映像再生装置は、トラッキング点に対して付加されたアノテーション情報を、映像提供装置に送信する(ステップS1103)。アノテーション情報は、映像再生装置の表示部606にも表示される。図12には、ユーザーのトラッキング点にアノテーション情報1201が付された映像を例示している。映像再生装置は、アノテーション情報が付された映像を、映像提供装置に送信するようにしてもよい。
一方、映像提供装置側では、トラッキング点が、現在の映像提供装置のユーザーの視界内にあるか、言い換えればアノテーション情報の空間的トラッキングを試み(ステップS1104)、空間的トラッキングが可能かどうかをチェックする(ステップS1105)。
ステップS1104では、例えば、映像再生装置から受信したアノテーション情報付きの映像と、撮像部501で撮像している映像(若しくは、映像提供装置のユーザーの視界の映像)との画像マッチングを行ない、現在の映像においてアノテーション情報が付された被写体を見つけ出すことで、トラッキング点を特定するようにしてもよい。あるいは、タイムラグ量が分かる場合には(例えば、映像再生装置で表示されるのが40秒前の映像であることが分かる場合)、映像提供装置のタイムラグだけ前の時刻の位置におけるトラッキング点を、映像提供装置の現在位置におけるトラッキング点に変換するようにしてもよい。
映像再生装置側でアノテーション情報が付加されたトラッキング点を、撮像部501で現在撮像している画像内でトラッキングすること、すなわち、空間的トラッキングが可能であれば(ステップS1105のYes)、そのトラッキング点を現在の撮像映像上の対応する位置に変換する。そして、映像提供装置の現在の撮像映像上のトラッキング点にアノテーション情報をオーバーレイ表示する(ステップS1106)。
図13には、映像提供装置の現在の撮像映像上に、映像再生装置で付されたアノテーション情報1301を表示している例を示している。図示のように、時間的及び空間的なラグをキャンセルして、アノテーション情報1301が表示されている。
一方、映像再生装置側でアノテーション情報が付加されたトラッキング点を、撮像部501で現在撮像している画像内でトラッキングすること、すなわち、空間的トラッキングが不可能な場合には(ステップS1105のNo)、アノテーション情報が付加されたときの過去の映像を使って、映像提供装置の表示部510でアノテーション情報を表示するようにして、時間的及び空間的なラグを保証する(ステップS1107)。
例えば、映像提供装置(のユーザー)が既に別の部屋に移動しており、現在いる空間内でアノテーション情報をトラッキングすることはできない。現在いる部屋ではないが、送信されたアノテーション情報付きの映像を見ることで、映像提供装置のユーザーは、映像再生装置側で何が指示されたかを理解することができる。
本明細書で開示する技術によれば、例えば不動産の物件を撮像した映像送信を好適に制御することができる。また、本明細書で開示する技術によれば、例えば不動産の物件を撮像したリアルタイム映像又はアーカイブ映像を好適に視聴することができ、物件の遠隔地からでも現実感のある内見を実現することができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、本明細書で開示する技術を不動産物件の内見システムに適用した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。本明細書で開示する技術は、さまざまな産業分野における映像伝送に適用することができる。例えば、外科手術などの医療現場、土木作業などの建築現場、飛行機やヘリコプターの操縦、自動車の運転者のナビゲーション、スポーツのインストラクションやコーチングなど、さまざまな産業分野の作業支援、介護支援、人材派遣の用途に活用することができる。また、本明細書で開示する技術を、コンサートやスポーツの観戦、SNS(Social Network Service)に利用することもできる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)撮像部と、
前記撮像部により撮像された画像を送信する送信部と、
外部機器から所定の信号を受信する受信部と、
表示部と、
制御部と、
を具備し、
前記制御部は、前記所定の信号に含まれる情報と前記撮像部で現在撮像している画像との時間的又は空間的な差分に基づいて、前記情報を前記表示部に表示させる、
情報処理端末装置。
(2)前記受信部は、前記外部機器で特定された対象物に対する付加情報を受信し、
前記制御部は、前記時間的又は空間的な差分に基づいて前記付加情報の表示を制御する、
上記(1)に記載の情報処理端末装置。
(3)前記制御部は、前記対象物が前記撮像部で現在撮像している画像内でトラッキング可能か否かに基づいて、前記時間的又は空間的な差分に基づいて前記付加情報の表示を制御する、
上記(2)に記載の情報処理端末装置。
(4)前記制御部は、トラッキング可能な前記対象物を前記撮像部で現在撮像している画像上の位置に変換して、変換後の対象物に前記付加情報を表示させる、
上記(2)に記載の情報処理端末装置。
(5)前記制御部は、前記撮像部で現在撮像している画像内でトラッキング不可能な前記対象物に対する付加情報を、前記対象物が表示されている時点の映像を使って表示させる、
上記(2)に記載の情報処理端末装置。
(6)前記付加情報は、前記外部機器において入力されるアノテーション情報を含む、
上記(2)に記載の情報処理端末装置。
100…映像視聴システム
101…映像提供装置、102…映像再生装置
200…映像視聴システム
201…映像提供装置、202…映像再生装置
300…映像視聴システム
301…映像提供装置、302…映像再生装置
400…映像視聴システム
401…映像提供装置、402…映像再生装置
500…情報処理装置(映像提供装置)
501…撮像部、503…映像符号化部
504…音声入力部、505…音声符号化部
506…多重化部、507…通信部、508…映像復号部
509…画像処理部、510…表示部、511…音声復号部
512…音声出力部、513…制御部
600…情報処理装置(映像再生装置)
601…通信部、602…分離部(DEMUX)
603…音声復号部、604…音声出力部
605…映像復号部、606…表示部
607…集音部、608…音声符号化部、609…センサー部
610…制御部、611…外部機器インターフェース

Claims (6)

  1. 撮像部と、
    前記撮像部により撮像された画像を送信する送信部と、
    外部機器から所定の信号を受信する受信部と、
    表示部と、
    制御部と、
    を具備し、
    前記制御部は、前記所定の信号に含まれる情報と前記撮像部で現在撮像している画像との時間的又は空間的な差分に基づいて、前記情報を前記表示部に表示させる、
    情報処理端末装置。
  2. 前記受信部は、前記外部機器で特定された対象物に対する付加情報を受信し、
    前記制御部は、前記時間的又は空間的な差分に基づいて前記付加情報の表示を制御する、
    請求項1に記載の情報処理端末装置。
  3. 前記制御部は、前記対象物が前記撮像部で現在撮像している画像内でトラッキング可能か否かに基づいて、前記時間的又は空間的な差分に基づいて前記付加情報の表示を制御する、
    請求項2に記載の情報処理端末装置。
  4. 前記制御部は、トラッキング可能な前記対象物を前記撮像部で現在撮像している画像上の位置に変換して、変換後の対象物に前記付加情報を表示させる、
    請求項2に記載の情報処理端末装置。
  5. 前記制御部は、前記撮像部で現在撮像している画像内でトラッキング不可能な前記対象物に対する付加情報を、前記対象物が表示されている時点の映像を使って表示させる、
    請求項2に記載の情報処理端末装置。
  6. 前記付加情報は、前記外部機器において入力されるアノテーション情報を含む、
    請求項2に記載の情報処理端末装置。
JP2018514176A 2016-04-28 2017-03-08 情報処理端末装置 Pending JPWO2017187807A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016090175 2016-04-28
JP2016090175 2016-04-28
PCT/JP2017/009340 WO2017187807A1 (ja) 2016-04-28 2017-03-08 情報処理端末装置

Publications (1)

Publication Number Publication Date
JPWO2017187807A1 true JPWO2017187807A1 (ja) 2019-03-07

Family

ID=60160309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018514176A Pending JPWO2017187807A1 (ja) 2016-04-28 2017-03-08 情報処理端末装置

Country Status (3)

Country Link
US (1) US10679581B2 (ja)
JP (1) JPWO2017187807A1 (ja)
WO (1) WO2017187807A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114424577A (zh) * 2019-09-18 2022-04-29 卡米洛·洛佩兹 用于生成视频的系统和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015060393A1 (ja) * 2013-10-25 2015-04-30 独立行政法人産業技術総合研究所 遠隔行動誘導システム及びその処理方法
JP2015115723A (ja) * 2013-12-10 2015-06-22 Kddi株式会社 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195491A (ja) 1999-11-02 2001-07-19 Matsushita Electric Works Ltd 住空間関連商品の販売支援方法と課金方法及びそのためのシステムと記録媒体
EP2546833A3 (en) * 2000-04-21 2014-08-20 Sony Corporation Information processing apparatus, method and computer program
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US10223710B2 (en) * 2013-01-04 2019-03-05 Visa International Service Association Wearable intelligent vision device apparatuses, methods and systems
US11163358B2 (en) * 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015060393A1 (ja) * 2013-10-25 2015-04-30 独立行政法人産業技術総合研究所 遠隔行動誘導システム及びその処理方法
JP2015115723A (ja) * 2013-12-10 2015-06-22 Kddi株式会社 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YAJU3D: "「射影変換(ホモグラフィ)について理解してみる」", デジタル・デザイン・ラボラトリーな日々, JPN6021006032, 4 August 2013 (2013-08-04), ISSN: 0004450847 *

Also Published As

Publication number Publication date
WO2017187807A1 (ja) 2017-11-02
US20190156784A1 (en) 2019-05-23
US10679581B2 (en) 2020-06-09

Similar Documents

Publication Publication Date Title
US10531068B2 (en) Information processing device, information processing method, and three-dimensional image data transmission method
US10455184B2 (en) Display device and information processing terminal device
US9615177B2 (en) Wireless immersive experience capture and viewing
US8831780B2 (en) System and method for creating virtual presence
US20180279004A1 (en) Information processing apparatus, information processing method, and program
JP6822410B2 (ja) 情報処理システム及び情報処理方法
WO2017187764A1 (ja) 情報処理端末装置並びに配信装置
US10778956B2 (en) Experience sharing system comprising smart glasses and virtual reality or smartphone device
KR20170086203A (ko) 스포츠 중계 서비스 제공 방법
US20180278995A1 (en) Information processing apparatus, information processing method, and program
US11806621B2 (en) Gaming with earpiece 3D audio
JPWO2017064926A1 (ja) 情報処理装置及び情報処理方法
WO2017187807A1 (ja) 情報処理端末装置
US20230269537A1 (en) Information Processing Apparatus, Information Processing Method, And Video Sound Output System
US11647334B2 (en) Information processing apparatus, information processing method, and video sound output system
KR20190081447A (ko) 스트리밍 글래스를 이용한 다국어 자막 및 사운드 제공 시스템
CN210015702U (zh) 摩天轮多媒体资讯化伴唱系统
JP6431225B1 (ja) 音響処理装置、映像音響処理装置、映像音響配信サーバおよびそれらのプログラム
JPH08336166A (ja) 映像視聴装置
EP4325842A1 (en) Video display system, information processing device, information processing method, and program
KR20180122802A (ko) 에이전트를 통한 대리체험 시스템 및 이를 이용한 대리체험 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210914