JP6729193B2 - Information processing server, information processing system, terminal device, and program - Google Patents
Information processing server, information processing system, terminal device, and program Download PDFInfo
- Publication number
- JP6729193B2 JP6729193B2 JP2016169691A JP2016169691A JP6729193B2 JP 6729193 B2 JP6729193 B2 JP 6729193B2 JP 2016169691 A JP2016169691 A JP 2016169691A JP 2016169691 A JP2016169691 A JP 2016169691A JP 6729193 B2 JP6729193 B2 JP 6729193B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- call
- conversation
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、情報処理サーバ、情報処理システム、端末装置、及びプログラムに関する。 The present invention relates to an information processing server, an information processing system, a terminal device, and a program.
近年、従来のようにハードウェアにより実現される電話機に代わって、アプリケーションソフトウェアにより実現されるソフトフォンが普及してきている。ソフトフォンは、ソフトウェアで実現されるため、ソフトフォンへの機能追加、ソフトフォンと他のアプリケーションソフトウェアとの連携等を、電話機に比べて比較的容易に実現することができる。そのため、ソフトフォンに関する様々な応用技術が提案されている。例えば、下記特許文献1には、カメラから得られた撮像画像の表示画面において当該撮像画像に写っている人物をタッチすると、顔認識により当該人物を特定し、当該人物の電話番号を取得し、当該人物への電話発信を行う技術が、開示されている。
In recent years, softphones realized by application software have become popular in place of conventional telephones realized by hardware. Since the softphone is realized by software, addition of functions to the softphone, cooperation between the softphone and other application software, etc. can be realized relatively easily as compared with the telephone. Therefore, various applied technologies regarding softphones have been proposed. For example, in
また、下記特許文献2には、例えばビデオ通話機能を有するソフトフォンにおいて、実空間の撮像画像上で実空間上の位置情報を扱うことができる情報処理方法が開示されている。 Further, Patent Document 2 below discloses an information processing method capable of handling position information in a real space on a captured image in the real space in a softphone having a video call function, for example.
上述のようなソフトフォンは、FAX(facsimile)、電子メール、インスタントメッセンジャー、およびVoIP(Voice over Internet Protocol)などを統合したユニファイドコミュニケーション(登録商標)技術・システムにも用いられている。上記ユニファイドコミュニケーション技術・システムは、異なる複数の場所で複数の人物が協働(collaboration)作業を行う遠隔分散協働型オフィス(分散環境)で用いられている。 The softphone as described above is also used in a unified communication (registered trademark) technology/system that integrates a fax (facsimile), an electronic mail, an instant messenger, VoIP (Voice over Internet Protocol), and the like. The unified communication technology/system is used in a remote distributed collaborative office (distributed environment) in which a plurality of persons collaborate at a plurality of different places.
「会話」という行為は2名で行われるとは限らず、3名以上のグループで行われることも多い。3名以上のグループで行われる会話としては、例えば、会話の開始時にグループのメンバが全員そろっているパターンの他に、開始された会話の存在に周囲の者が気づき(Awareness:アウェアネス)、気づいた者がその会話の場に後から加わることにより、当該会話を行っているグループのメンバ数が増えていくようなパターンがある。特に、インフォーマル・コミュニケーション(雑談等のあらかじめ計画されておらず偶発的に発生するコミュニケーション)をベースとした会話行為は、後者のパターンで発生することが多いと考えられる。また、後者の場合においては、会話に加わる前の周囲の者は、会話の発生と当該会話の大まかな内容に関する情報(自分が会話に後から参加したいか否か判断できる程度の粒度を持つ断片的な会話情報)を知ることができる状態にある場合が多い。 The act of "conversation" is not always performed by two people, but is often performed by a group of three or more people. As a conversation conducted in a group of three or more people, for example, in addition to the pattern in which all the members of the group are all in place at the beginning of the conversation, other people notice the existence of the conversation started (Awareness) and become aware. There is a pattern in which the number of members of the group having the conversation increases as the person who joins the conversation later on. In particular, it is considered that conversational actions based on informal communication (communication that occurs accidentally without being planned in advance such as chat) often occur in the latter pattern. In the latter case, the surrounding people before joining the conversation have information about the occurrence of the conversation and the rough contents of the conversation (a fragment having a granularity sufficient to determine whether or not the user wants to participate in the conversation later). In many cases, it is in a state where it is possible to know basic conversation information).
しかしながら、従来のソフトフォン製品は、議題が決まった上での話し合いなど、意図的、かつ、正式・公式的なフォーマル・コミュニケーションにおいて使用されることが前提になっている。すなわち、従来のソフトフォン製品は、メンバ全員が会話の開始時からそろっているパターンを想定しているため、メンバ全員が一斉に会話(通信)を開始するテレビ会議(多人数通話)機能か、表示画面のプレゼンスリスト(所在リスト)上で、既存のメンバが通話状態であるか否かの2値情報を知ることができる機能か、しか有していなかった。そのため、従来のソフトフォン製品が遠隔分散協働型オフィス(分散環境)で使用された場合には、メンバが同室環境にいる場合のように、周囲の会話が自然に聞こえてくることにより会話の存在に気づき、さらに当該会話内容の大まかな把握から会話に関心を持つことから会話に参加し、最終的に多人数会話に至る、という自然な行為が実現し難い。すなわち、従来のソフトフォン製品は、上述のようなインフォーマル・コミュニケーションに対応するものではなかった。 However, it is premised that the conventional softphone products are used in intentional, formal, and formal communication such as a discussion after the agenda is decided. That is, since the conventional softphone product assumes a pattern in which all members have the same conversation from the beginning, a video conference (multi-party call) function in which all members start conversation (communication) all at once, It has only the function of being able to know the binary information indicating whether or not the existing member is in the call state on the presence list (location list) of the display screen. Therefore, when a conventional softphone product is used in a remote distributed collaborative office (distributed environment), the presence of conversation can be felt by hearing the surrounding conversation naturally, as if the members were in the same room environment. However, it is difficult to realize the natural act of participating in a conversation and finally reaching a multi-person conversation because of the interest in the conversation from the general understanding of the conversation content. That is, the conventional softphone products do not support the above-mentioned informal communication.
そこで、本発明は、上記状況に鑑みてなされたものであり、本発明の目的とするところは、ユーザが、分散環境において、遠隔地での会話の発生や当該会話の大まかな内容を把握することができ、さらに、誰が通話状態にあるのかを直感的に認識することを可能にする、新規かつ改良された情報処理サーバ、情報処理システム、端末装置、及びプログラムを提供することにある。 Therefore, the present invention has been made in view of the above circumstances, and an object of the present invention is to allow a user to grasp the occurrence of a conversation at a remote place and the rough content of the conversation in a distributed environment. In addition, it is possible to provide a new and improved information processing server, information processing system, terminal device, and program that enable intuitive recognition of who is in a call.
上記課題を解決するために、本発明のある観点によれば、通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトを生成し、前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記会話イベントオブジェクトに係るデータおよび前記発言語句オブジェクトに係るデータの配信を制御する制御部を備える、情報処理サーバが提供される。
In order to solve the above problems, according to an aspect of the present invention, a conversation event object relating to the call is generated by linking communication identification information of a plurality of speakers involved in the call, and from the voice data of the call. An information processing server is provided that includes a control unit that generates a language phrase object related to an extracted phrase and controls distribution of data related to the conversation event object and data related to the language phrase object .
前記制御部は、前記会話イベントオブジェクトに対するユーザの入力を取得し、前記会話イベントオブジェクトに紐づけられた前記複数の話者の通信識別情報に、前記ユーザの通信用識別情報を関連付けてもよい。
The control unit may acquire a user's input to the conversation event object and associate the communication identification information of the plurality of speakers associated with the conversation event object with the communication identification information of the user.
前記情報処理サーバは、前記発言語句オブジェクトに対して重みづけ処理を行う重みづけ処理部をさらに備え、前記制御部は、前記重みづけ処理の結果と所定の値とを比較し、比較結果に基づいて、前記発言語句オブジェクトに係るデータの配信を制御してもよい。
It said information processing server further includes a weighting processing portion that performs weighting processing for the previous SL onset language phrase objects, the control unit compares the results with the predetermined value of the weighting processing, the comparison result The distribution of data relating to the language phrase object may be controlled based on
前記重みづけ処理部は、前記通話における前記語句の出現頻度に基づいて、前記重みづけ処理を行ってもよい。 The weighting processing unit may perform the weighting processing based on the frequency of appearance of the phrase in the call.
前記重みづけ処理部は、前記語句の抽象度に基づいて、前記重みづけ処理を行ってもよい。 The weighting processing unit may perform the weighting processing based on the degree of abstraction of the phrase.
前記重みづけ処理部は、前記語句の品詞カテゴリに基づいて、前記重みづけ処理を行ってもよい。 The weighting processing unit may perform the weighting processing based on a part-of-speech category of the phrase.
前記重みづけ処理部は、前記通話の音声データに含まれる前記語句の発話の音圧に係るデータに基づいて、前記重みづけ処理を行ってもよい。 The weighting processing unit may perform the weighting processing based on the data relating to the sound pressure of the utterance of the phrase included in the voice data of the call.
前記制御部は、前記発言語句オブジェクトに紐づけて、前記重みづけ処理の結果に係るデータの配信を制御してもよい。
Wherein, in association cord to the remarks phrase object, it may control the distribution of data according to the result of the weighting processing.
前記情報処理サーバは、前記発言語句オブジェクトに係る語句を発言した前記話者の位置に基づいて、前記発言語句オブジェクトの表示位置を決定し、決定した前記表示位置を配信する発言状況演算部をさらに備えてもよい。 The information processing server further determines a display position of the language phrase object based on a position of the speaker who has said a phrase related to the language phrase object, and further includes a statement status calculation unit that distributes the determined display position. You may prepare.
前記制御部は、実空間における、前記通話に係る前記複数の話者のうちの1人の前記話者と、前記通話に参加していないユーザとの位置関係に基づいて、前記発言語句オブジェクトの配信を制御してもよい。
The control unit , based on the positional relationship between one of the plurality of speakers involved in the call and a user who is not participating in the call in the real space , Distribution may be controlled .
前記制御部は、実空間における、前記通話に係る前記複数の話者のうちの1人の前記話者と、前記通話に参加していないユーザとの位置関係に基づいて、前記会話イベントオブジェクトの配信を制御してもよい。
The control unit , based on the positional relationship between one of the plurality of speakers involved in the call and a user who is not participating in the call in the real space , Distribution may be controlled .
前記情報処理サーバは、ユーザの前記通話に対する関心度の入力を取得し、前記会話イベントオブジェクトに対して、取得した前記関心度と、前記ユーザの通信用識別情報とを紐づける関心度制御部をさらに備えてもよい。 The information processing server acquires an input of the interest level of the user with respect to the call, and associates the acquired interest level with the communication identification information of the user with respect to the conversation event object. You may further prepare.
前記情報処理サーバは、前記ユーザに係る表示体を生成し、取得した前記関心度に基づいて、前記会話イベントオブジェクトの位置と前記表示体との仮想的位置関係を決定する表示体制御部をさらに備えてもよい。 The information processing server further includes a display body control unit that generates a display body for the user, and determines a virtual positional relationship between the position of the conversation event object and the display body based on the acquired degree of interest. You may prepare.
前記情報処理サーバは、前記発言語句オブジェクトに対して重みづけ処理を行う重みづけ処理部をさらに備え、前記制御部は、前記重みづけ処理の結果と、所定の値とを比較し、比較結果に基づいて、前記発言語句オブジェクトに係るデータの配信を制御し、前記所定の値は、取得した前記関心度に基づいて、変更されてもよい。
It said information processing server further includes a weighting processing portion that performs weighting processing on the calling language phrase objects, the control unit compares the result of the weighting processing, and a predetermined value, the comparison result The distribution of the data related to the language phrase object is controlled based on, and the predetermined value may be changed based on the acquired degree of interest.
前記関心度制御部は、前記ユーザの前記通話に係る複数の話者についての関心度の比率の入力を取得し、前記会話イベントオブジェクトに紐づけて、取得した前記関心度の比率に係るデータを配信してもよい。 The degree-of-interest control unit acquires an input of the degree-of-interest ratio of the plurality of speakers involved in the call of the user, associates the input with the conversation event object, and obtains the data regarding the acquired degree-of-interest ratio. You may deliver.
前記情報処理サーバは、前記発言語句オブジェクトに対して重みづけ処理を行う重みづけ処理部をさらに備え、前記制御部は、前記重みづけ処理の結果と、所定の値とを比較し、比較結果に基づいて、前記発言語句オブジェクトに係るデータの配信を制御し、前記所定の値は、取得した前記関心度及び前記関心度の比率に基づいて、変更されてもよい。
It said information processing server further includes a weighting processing portion that performs weighting processing on the calling language phrase objects, the control unit compares the result of the weighting processing, and a predetermined value, the comparison result The distribution of the data related to the language phrase object is controlled based on, and the predetermined value may be changed based on the acquired interest level and the acquired ratio of the interest level.
前記関心度制御部は、前記会話イベントオブジェクトに紐づけられた前記複数の話者の通信識別情報に、前記通話に対して前記関心度を入力した前記ユーザの通信用識別情報を関連付けてもよい。 The interest degree control unit may associate the communication identification information of the plurality of speakers associated with the conversation event object with the communication identification information of the user who has input the interest degree for the call. ..
また、上記課題を解決するために、本発明の別の観点によれば、通話に係る複数の話者が存在する実空間に対応する3次元仮想空間を生成し、前記通話に係る複数の話者の通信用識別情報のそれぞれに対応する複数のオブジェクトと、前記複数のオブジェクトを互いに紐づける、前記通話に係る会話イベントオブジェクトとを生成して、前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記会話イベントオブジェクトに係るデータおよび前記発言語句オブジェクトに係るデータを前記3次元仮想空間に配置する、制御部を備える、情報処理サーバが提供される。
In order to solve the above problems, according to another aspect of the present invention, a three-dimensional virtual space corresponding to a real space in which a plurality of speakers involved in a call exist is generated, and a plurality of talks related to the call are generated. A plurality of objects corresponding to each of the communication identification information of the person and a conversation event object relating to the call, which is associated with the plurality of objects, and relates to a phrase extracted from the voice data of the call. An information processing server is provided, which includes a control unit that generates a language phrase object and arranges data relating to the conversation event object and data relating to the language phrase object in the three-dimensional virtual space.
前記情報処理サーバは、ユーザの前記通話に対する関心度の入力を取得し、前記ユーザに対応するユーザオブジェクトを前記3次元仮想空間に配置し、取得した前記関心度に基づいて、前記3次元仮想空間における、前記会話イベントオブジェクトと前記ユーザオブジェクトとの間の仮想的距離を決定する、表示体制御部をさらに備えてもよい。 The information processing server acquires an input of a degree of interest of the user with respect to the call, arranges a user object corresponding to the user in the three-dimensional virtual space, and based on the obtained degree of interest, the three-dimensional virtual space. In, the display control unit may further include a display body control unit that determines a virtual distance between the conversation event object and the user object.
前記情報処理サーバは、ユーザの前記通話に係る前記複数の話者についての関心度の比率の入力を取得し、取得した前記関心度の比率に基づいて、生成した前記会話イベントオブジェクト上に、前記関心度の比率を示す基準点を配置する、関心度制御部をさらに備えてもよい。 The information processing server acquires an input of a ratio of interest levels for the plurality of speakers involved in the call of the user, and based on the acquired ratio of interest levels, on the generated conversation event object, the An interest degree control unit may be further provided, which arranges a reference point indicating a ratio of interest degrees.
また、上記課題を解決するために、本発明の更なる別の観点によれば、情報処理サーバと、複数の端末装置とを含む情報処理システムであって、前記情報処理サーバは、通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトを生成し、前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記会話イベントオブジェクトに係るデータおよび前記発言語句オブジェクトに係るデータを、前記複数の端末装置に配信する、情報処理システムが提供される。
In order to solve the above problems, according to still another aspect of the present invention, there is provided an information processing system including an information processing server and a plurality of terminal devices, wherein the information processing server relates to a call. Data relating to the conversation event object, which is associated with communication identification information of a plurality of speakers, generates a conversation event object relating to the call, generates a language phrase object relating to a phrase extracted from the voice data of the call, and An information processing system is provided that distributes data relating to the language phrase object to the plurality of terminal devices.
また、上記課題を解決するために、本発明の更なる別の観点によれば、通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトおよび前記通話の音声データから抽出された語句に係る発言語句オブジェクトを表示する表示部を備える、端末装置が提供される。
Further, in order to solve the above-mentioned problems, according to still another aspect of the present invention, a conversation event object related to the call and a voice of the call are associated with communication identification information of a plurality of speakers involved in the call. A terminal device is provided that includes a display unit that displays a language phrase object related to a phrase extracted from data .
前記端末装置は、前記発言語句オブジェクトに対して行われた重みづけ処理の結果を取得して、前記重みづけ処理の結果と所定の値とを比較し、比較結果に基づいて、前記表示部を制御する、発言語句オブジェクト制御部をさらに備えてもよい。 The terminal device acquires the result of the weighting process performed on the language phrase object, compares the result of the weighting process with a predetermined value, and based on the comparison result, displays the display unit. You may further provide the language phrase object control part which controls.
前記端末装置は、前記発言語句オブジェクトに対して行われた重みづけ処理の結果を取得して、前記重みづけ処理の結果に基づいて、前記発言語句オブジェクトの大きさ、色、コントラスト、表示位置のいずれか1つを制御する、発言語句オブジェクト制御部をさらに備えてもよい。 The terminal device obtains the result of the weighting process performed on the language phrase object, and based on the result of the weighting process, the size, color, contrast, and display position of the language phrase object. A language phrase object control unit that controls any one may be further provided.
前記端末装置は、ユーザの前記通話に対する関心度を取得し、前記関心度に基づいて、前記通話に係る音声の出力を制御する音声出力制御部をさらに備えてもよい。 The terminal device may further include a voice output control unit that acquires a degree of interest of the user in the call and controls output of a voice related to the call based on the degree of interest.
前記端末装置は、ユーザによる、前記表示部に表示された前記ユーザに係るユーザオブジェクトに対する操作に基づいて、前記ユーザの前記通話に対する関心度を取得する会話関心度設定部をさらに備えてもよい。 The terminal device may further include a conversation interest level setting unit that acquires an interest level of the user with respect to the call based on an operation performed by the user on a user object of the user displayed on the display unit.
前記端末装置は、前記ユーザオブジェクトの表示のために、前記ユーザの顔画像を取得する撮像部をさらに備えてもよい。 The terminal device may further include an imaging unit that acquires a face image of the user in order to display the user object.
前記端末装置は、ユーザの前記通話に対する関心度を取得したことに基づいて、前記ユーザの存在を示す通知を行う会話関心度通知部をさらに備えてもよい。 The terminal device may further include a conversation interest level notification unit that performs a notification indicating the presence of the user based on the acquisition of the interest level of the user for the call.
前記会話関心度通知部は、前記ユーザの存在を示す通知表示を前記表示部に表示させ、取得した前記関心度に基づいて、前記通知表示の大きさ、色、動き、コントラスト、表示位置のいずれか1つを制御してもよい。 The conversation interest level notification unit displays a notification display indicating the presence of the user on the display unit, and based on the acquired interest level, any one of the size, color, movement, contrast, and display position of the notification display. You may control one.
前記会話関心度通知部は、前記ユーザの存在を示す音声出力を音声出力部に行わせ、
取得した前記関心度に基づいて、前記音声出力の音量を制御してもよい。
The conversation interest level notification unit causes the audio output unit to perform audio output indicating the presence of the user,
The volume of the audio output may be controlled based on the acquired degree of interest.
また、上記課題を解決するために、本発明の更なる別の観点によれば、コンピュータを、通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトを生成し、前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記会話イベントオブジェクトに係るデータおよび前記発言語句オブジェクトに係るデータの配信を制御する制御部として機能させるための、プログラムが提供される。
Further, in order to solve the above-mentioned problems, according to still another aspect of the present invention, a computer generates a conversation event object relating to the call, which associates a computer with communication identification information of a plurality of speakers involved in the call. Then, a program for generating a language phrase object relating to a phrase extracted from the voice data of the call, and causing it to function as a control unit for controlling the distribution of the data relating to the conversation event object and the data relating to the language phrase object. Will be provided.
以上説明したように本発明によれば、ユーザが、分散環境において、遠隔地での会話の発生や当該会話の大まかな内容を把握することができ、さらに、誰が通話状態にあるのかを直感的に認識することが可能である。 As described above, according to the present invention, a user can grasp the occurrence of a conversation at a remote place and a rough content of the conversation in a distributed environment, and further intuitively know who is in a call state. Can be recognized.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this specification and the drawings, constituent elements having substantially the same functional configuration are designated by the same reference numerals, and a duplicate description will be omitted.
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成または論理的意義を有する複数の構成を、必要に応じてボタン画像63A及びボタン画像63Bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、ボタン画像63A及びボタン画像63Bを特に区別する必要が無い場合には、単にボタン画像63と称する。
In addition, in the present specification and the drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different alphabets after the same reference numeral. For example, a plurality of configurations having substantially the same functional configuration or logical significance are distinguished as needed, such as a
なお、説明は以下の順序で行うものとする。
1. 第1の実施形態
1.1 情報処理システムの概略的な構成
1.2 端末装置の構成
1.2.1 ハードウェア構成
1.2.2 機能構成
1.2.3 ソフトウェア構成
1.3 情報管理サーバの構成
1.3.1 ハードウェア構成
1.3.2 機能構成
1.4 音声認識サーバの構成
1.4.1 ハードウェア構成
1.4.2 機能構成
1.5 処理の流れ
2. 第2の実施形態
2.1 情報管理サーバの構成
2.1.1 機能構成
2.2 処理の流れ
3. 第3の実施形態
3.1 端末装置の構成
3.1.1 機能構成
3.2 情報管理サーバの構成
3.2.1 機能構成
3.3 処理の流れ
4. 補足
The description will be given in the following order.
1. 1. First embodiment 1.1 Schematic configuration of information processing system 1.2 Configuration of terminal device 1.2.1 Hardware configuration 1.2.2 Functional configuration 1.2.3 Software configuration 1.3 Information management Server configuration 1.3.1 Hardware configuration 1.3.2 Functional configuration 1.4 Speech recognition server configuration 1.4.1 Hardware configuration 1.4.2 Functional configuration 1.5 Process flow 2. Second embodiment 2.1 Configuration of information management server 2.1.1 Functional configuration 2.2
<1.第1の実施形態>
<1.1 情報処理システムの概略的な構成>
本発明の第1の実施形態は、分散環境において、複数の遠隔地に存在する複数の人物の間での会話に使用される情報処理システムに関する。まず、図1を参照して、第1の実施形態に係る情報処理システムの概略的な構成を説明する。図1は、本実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。
<1. First Embodiment>
<1.1 Schematic configuration of information processing system>
The first embodiment of the present invention relates to an information processing system used in a conversation between a plurality of persons existing in a plurality of remote places in a distributed environment. First, with reference to FIG. 1, a schematic configuration of an information processing system according to the first embodiment will be described. FIG. 1 is an explanatory diagram showing an example of a schematic configuration of an information processing system according to the present embodiment.
図1に示すように、本実施形態に係る情報処理システムは、例えば、複数の拠点にわたって利用される。図1の例では、情報処理システムは、センタオフィス10とサテライトオフィス20(又はホームオフィスと20)にわたって利用される。例えば、センタオフィス10は、比較的大規模なオフィスであり、サテライトオフィス20(又はホームオフィスと20)は、比較的小規模なオフィスである。
As shown in FIG. 1, the information processing system according to the present embodiment is used, for example, over a plurality of bases. In the example of FIG. 1, the information processing system is used across a
情報処理システムは、センタオフィス10において、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ(情報処理サーバ)200、音声認識サーバ201、及びLAN(Local Area network)19を含む。また、情報処理システムは、サテライトオフィス20(又はホームオフィスと20)において、端末装置100、ディスプレイ21、及びLAN23を含む。また、情報処理システムは、さらに外部ネットワーク30及びPBX(Private Branch eXchange)40を含む。
The information processing system includes, in the
(カメラ11)
カメラ11は、当該カメラ11が向いている方向(即ち、撮像方向)の領域を撮像する。センタオフィス10には、1台又は複数のカメラ11が設置される。そして、設置された各カメラ11は、それぞれの設置位置からセンタオフィス10の一部又は全体を撮像することができる。図1からわかるように、本実施形態に係る情報処理システムにおいては、センタオフィス10に設置された複数のカメラ11により、様々な位置からセンタオフィス10を撮像することができる。なお、本実施形態においては、カメラ11を通じて生成される撮像画像は、静止画像であってもよく、又は動画像(即ち映像)であってもよく、特に限定されるものではない。また、カメラ11は、例えば、自動で撮像方向を変えることができる。さらに、カメラ11は、例えば、ズーム機能を有する。当該ズーム機能は、光学ズーム機能であってもよく、又はデジタルズーム機能であってもよく、特に限定されない。
(Camera 11)
The
また、カメラ11は、当該カメラ11の位置を変えることが可能であってもよい。例えば、カメラ11は、ドリー(図示省略)により可動するように構成されていてもよい。言い換えると、カメラ11は、レール(図示省略)に沿って可動するように構成されていてもよい。この場合においては、レールに沿ってカメラ11が可動するためのモータ(図示省略)の制御により、カメラ11が当該レールに沿って動いてもよい。これにより、センタオフィス10に設置されたカメラ11が1台の場合であっても、異なる位置から撮像された撮像画像をカメラ11により取得することが可能になる。
Further, the
また、カメラ11がその位置を変えることが可能である場合には、上記ズーム機能は、カメラ11の位置を変えることによるズーム機能であってもよい。例えば、上記ズーム機能は、ドリーによるズーム機能であってもよい。具体的には、被写体に向かってカメラ11を動かすことによりズームインを行い、カメラ11が被写体から離れる方向にカメラ11を動かすことによりズームアウトを行ってもよい。なお、ドリーによるズーム機能は、光学ズーム又はデジタルズームのように、精緻に調整されるズームでなくてもよい。この場合、例えば、ズームインでは、被写体がより大きく写った撮像画像が取得できればよく、ズームアウトでは、被写体がより小さく写った撮像画像が取得できればよい。
If the
(マイクロフォン13)
マイクロフォン13は、当該マイクロフォン13の周囲の音を集音する。センタオフィス10には、例えば、1台又は複数のマイクロフォン13が設置される。例えば、設置された各マイクロフォン13は、センタオフィス10内のそれぞれの設置位置の周囲の音を集音する。このように、本実施形態に係る情報処理システムでは、センタオフィス10に設置された複数のマイクロフォン13により、センタオフィス10内の様々な位置での音が集音される。
(Microphone 13)
The
(センサ15)
センサ15は、様々な種類のものを検知する様々な種類のセンサを含み得る。センタオフィス10には、例えば、1台又は複数のセンサ15が設置される。センサ15は、例えば、人物が座席にいるか否かを判定する座席センサであってもよい。当該座席センサは、各座席に設置され、押圧を検出することにより、各座席に人物が座っているか否かを判定する。また、センサ15は、例えば、座席等に設置された振動センサであってもよく、該当する座席に着席する人物に起因する振動を検出することにより、該当する座席に人物が座っているかを判定する。また、センサ15は、例えば、机下等に設置された人感センサであってもよく、当該人感センサは、該当する座席に着席する人物に起因する赤外線、超音波、可視光等の変化を検出することにより、該当する座席に人物が座っているかを判定する。
(Sensor 15)
The
(メディア配信サーバ17)
メディア配信サーバ17は、要求に応じて端末装置100等にメディア(例えば、音声、映像等)を配信する。
(Media distribution server 17)
The
(情報管理サーバ200)
情報管理サーバ200は、本実施形態に係る情報処理システムにおいて用いられる様々な情報を管理する。即ち、情報管理サーバ200は、当該様々な情報を記憶し、適時に当該様々な情報を更新する。例えば、情報管理サーバ200は、上述したカメラ11、マイクロフォン13及びセンサ15に関するパラメータを管理する。具体的には、例えば、情報管理サーバ200は、カメラ11のパラメータとして、カメラ11の設置位置、撮像方向(例えば、カメラ11のレンズと垂直な方向)、ズーム率等の情報を記憶し、更新する。
(Information management server 200)
The
また、例えば、情報管理サーバ200は、実空間に対応する3次元仮想空間のデータを生成、管理する。当該3次元仮想空間は、例えば、センタオフィス10を模した3次元仮想空間のことを意味する。また、当該3次元仮想空間には、オブジェクトが配置される。例えば、当該オブジェクトは、人物に対応し、当該オブジェクトは、センタオフィス10の各座席の位置に対応する上記3次元仮想空間内の3次元仮想位置に配置される。即ち、人物が座席に座っている場合には当該人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクトが配置される。一例として、当該オブジェクトは、円柱状の形状を持つ。なお、3次元仮想空間及びオブジェクトについては後述する。
Further, for example, the
さらに、例えば、情報管理サーバ200は、マイクロフォン13や端末装置100の集音部140から取得した音声データを、対応する通信用ID(identification)のデータを付与して、音声認識サーバ201へ送信する。また、例えば、情報管理サーバ200は、音声認識サーバ201から認識結果の語句データ(例えば、上記音声データから抽出された語句についてのデータ)を受信し管理する。なお、当該音声データと当該通信用IDのデータ、及び、当該語句データについては後述する。また、音声データの取得や記憶に係る処理等、情報管理サーバ200が行う処理、もしくは当該処理の一部については、情報管理サーバ200ではなくメディア配信サーバ17、端末装置100等の他の装置によって行われてもよい。
Furthermore, for example, the
(音声認識サーバ201)
音声認識サーバ201は、大規模な語句リストのデータを内蔵し、例えば情報管理サーバ200を介して、端末装置100やマイクロフォン13で取得された音声データを受信し、音声認識処理を行う。当該音声認識処理とは、上述の語句リストを用いて、受信した音声データに含まれる語句の抽出を行う処理のことである。そして、音声認識サーバ201は、音声認識処理の結果であるデータを上述の情報管理サーバ200へと送信する。なお、音声認識サーバ201は、仮想サーバやアプリケーションソフトウェアとして、上述の情報管理サーバ200、メディア配信サーバ17、後述するPBX40等の他のサーバ機器等により実現されてもよい。
(Voice recognition server 201)
The
(LAN19、外部ネットワーク30)
LAN19は、センタオフィス10内の各装置を接続するネットワークである。また、LAN19は、外部ネットワーク30を介して、センタオフィス10内の各装置とセンタオフィス10外の装置とを接続する。LAN19及び外部ネットワーク30は、有線又は無線であることができ、例えば、インターネット、IP−VPN(Internet Protocol‐Virtual Private Network)、専用回線、又はWAN(Wide Area Network)、赤外線通信などの任意の通信ネットワークから構成される。
(
The
(端末装置100)
端末装置100は、ユーザにより使用される。例えば、端末装置100は、電話、メール等のコミュニケーションを行うための機能をユーザに提供する。端末装置100は、例えば、タブレット端末である。なお、端末装置100は、タブレット端末の代わりに、スマートフォン、PC(Personal Computer)、ディスプレイ付き電話機等の、表示機能及び通信機能を有する別の装置であってもよい。
(Terminal device 100)
The
(ディスプレイ21)
ディスプレイ21は、様々な画面を表示する。例えば、ディスプレイ21は、カメラ11を通じて取得された撮像画像を含む画面を表示する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の様子を見ることができる。また、ディスプレイ21は、例えば、いずれかの音声も出力してもよい。具体的には、ディスプレイ21は、マイクロフォン13により集音される音声を出力してもよい。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10内の音を聞くことができる。
(Display 21)
The
(LAN23)
LAN23は、サテライトオフィス20(又はホームオフィス20)内の各装置を接続するネットワークである。また、LAN23は、外部ネットワーク30を介して、サテライトオフィス20内の各装置とサテライトオフィス20外の装置とを接続する。LAN23についても、有線又は無線であることができ、例えば、専用回線、赤外線通信などの任意の通信ネットワークから構成される。
(LAN23)
The
(PBX40)
PBX40は、外部ネットワーク30を介した装置間の通信を可能にする。PBX40は、例えば、H.323又はSIP(Session Initiation Protocol)に従って動作することができる。具体的には、例えば、PBX40は、通信用の識別情報(例えば、電話番号)とIP(Internet Protocol)アドレスとを、互いに対応付けて記憶する。そして、PBX40は、要求に応じて、通信用の識別情報をIPアドレスに変換し、当該IPアドレスを要求元に提供する。なお、PBX40は、上述のLAN19又はLAN23に接続されてもよい。
(PBX40)
The
<1.2 端末装置の構成>
続いて、図2から図17を参照して、本実施形態に係る端末装置100の構成の一例を説明する。端末装置100は、先に説明したように、コミュニケーションを行うための機能をユーザに提供する装置である。
<1.2 Configuration of terminal device>
Subsequently, an example of the configuration of the
<1.2.1 ハードウェア構成>
まず、図2を参照して、本実施形態に係る端末装置100のハードウェア構成の一例を説明する。図2は、本実施形態に係る端末装置100のハードウェア構成の一例を示すブロック図である。図2を参照すると、端末装置100は、CPU(central Processing Unit)801、ROM(Read Only Memory)803、RAM(Random Access Memory)805、バス807、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820を有する。
<1.2.1 Hardware configuration>
First, an example of the hardware configuration of the
(CPU801、ROM803、RAM805)
CPU801は、端末装置100における様々な処理を実行する。また、ROM803は、端末装置100における処理をCPU801に実行させるためのプログラム及びデータを記憶する。さらに、RAM805は、CPU801の処理の実行時に、プログラム及びデータを一時的に記憶する。
(
The
(バス807)
バス807は、CPU801、ROM803及びRAM805を相互に接続する。バス807には、さらに、後述する記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820が接続される。バス807は、例えば、複数の種類のバスを含む。具体的には、バス807は、CPU801、ROM803及びRAM805を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含んでもよい。
(Bus 807)
The
(記憶装置809)
記憶装置809は、端末装置100内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(FLASH Memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。
(Memory device 809)
The
(通信インターフェース811)
通信インターフェース811は、端末装置100の通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース811は、無線通信用のインターフェースであってもよく、この場合には、例えば、通信アンテナ、RF(Radio Frequency)回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース811は、有線通信用のインターフェースであってもよく、この場合には、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
(Communication interface 811)
The
(カメラ813)
カメラ813は、被写体を撮像する。カメラ813は、例えば、光学系、撮像素子及び画像処理回路を含む。
(Camera 813)
The
(マイクロフォン815)
マイクロフォン815は、周囲の音を集音する。マイクロフォン815は、周囲の音を電気信号へ変換し、当該電気信号をデジタルデータに変換する。
(Microphone 815)
The
(スピーカ817)
スピーカ817は、音声を出力する。スピーカ817は、デジタルデータを電気信号に変換し、当該電気信号を音声に変換する。
(Speaker 817)
The
(タッチパネル820)
タッチパネル820は、タッチ検出面821及び表示面823を含む。
(Touch panel 820)
The
タッチ検出面821は、タッチパネル820におけるタッチ位置を検出する。より具体的には、例えば、ユーザが、タッチパネル820にタッチすると、タッチ検出面821は、当該タッチを感知し、当該タッチの位置に応じた電気信号を生成し、そして当該電気信号をタッチ位置の情報に変換する。タッチ検出面821は、例えば、静電容量方式、抵抗膜方式、光学式等の任意のタッチ検出方式に対応することができる。
The
表示面823は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示面823は、例えば、液晶、有機EL(Organic Light Emitting Diode:OLED)、CRT(Cathode Ray Tube)等を用いて実現され得る。
The
<1.2.2 機能構成>
次に、本実施形態に係る端末装置100の機能構成の一例を説明する。図3は、本実施形態に係る端末装置100の機能構成の一例を示すブロック図である。図3を参照すると、端末装置100は、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を有する。
<1.2.2 Functional configuration>
Next, an example of the functional configuration of the
(通信部110)
通信部110は、他の装置と通信する。例えば、通信部110は、上述のLAN23に接続され、サテライトオフィス20内の各装置と通信する。また、通信部110は、上述の外部ネットワーク30及びLAN19を介して、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部110は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200及び音声認識サーバ201と通信する。なお、通信部110は、例えば、通信インターフェース811により実現され得る。
(Communication unit 110)
The
(入力部120)
入力部120は、端末装置100のユーザによる入力を受け付ける。そして、入力部120は、入力結果を後述する制御部180へ提供する。例えば、入力部120は、表示画面におけるユーザにより指定される位置を検出する。より具体的には、入力部120は、タッチ検出面821により実現され、タッチパネル820におけるタッチ位置を検出する。そして、入力部120は、検出されたタッチ位置を制御部180へ提供する。
(Input unit 120)
The
(撮像部130)
撮像部130は、被写体を撮像する。例えば、撮像部130は、端末装置100の正面方向の領域を撮像する。この場合には、撮像部130は、端末装置100のユーザを撮像することができる。撮像部130は、撮像結果(即ち、撮像画像)を制御部180に提供する。なお、撮像部130は、例えば、カメラ813により実現され得る。
(Imaging unit 130)
The
(集音部140)
集音部140は、端末装置100の周囲の音を集音する。例えば、集音部140は、端末装置100のユーザの声を集音することができる。集音部140は、集音結果(音声データ)を制御部180に提供する。なお、集音部140は、例えば、マイクロフォン815により実現され得る。
(Sound collection unit 140)
The
(表示部150)
表示部150は、出力画像(表示画面)を表示する。表示部150は、制御部180による制御に応じて表示画面を表示する。なお、表示部150は、例えば、表示面823により実現され得る。
(Display unit 150)
The
(音声出力部160)
音声出力部160は、音声を出力する。音声出力部160は、制御部180による制御に応じて音声を出力する。なお、音声出力部160は、例えば、スピーカ817により実現され得る。
(Voice output unit 160)
The
(記憶部170)
記憶部170は、端末装置100の動作のためのプログラム及びデータを記憶する。例えば、記憶部170は、実空間に対応する3次元仮想空間のデータを記憶する。具体的には、例えば、情報管理サーバ200が、センタオフィス10に対応する3次元仮想空間のデータを記憶しており、制御部180が、通信部110を介して、上記3次元仮想空間のデータを取得する。そして、記憶部170は、取得された当該3次元仮想空間のデータを記憶する。なお、記憶部170は、例えば、記憶装置809により実現され得る。
(Storage unit 170)
The
(制御部180)
制御部180は、端末装置100の様々な機能を提供する。制御部180は、実空間情報提供部181、音声出力制御部182、位置取得部183、オブジェクト選択部185、ID取得部187、電話部189、会話オブジェクト選択部191、COMMリンク制御部193、及びCOMMワード制御部(発言語句オブジェクト制御部)195を含む。なお、制御部180は、例えば、CPU801、ROM803及びRAM805により実現され得る。以下に、制御部180の各機能部について説明する。
(Control unit 180)
The
(実空間情報提供部181)
実空間情報提供部181は、実空間の情報を端末装置100のユーザに提供する。詳細には、実空間情報提供部181は、表示部150に、実空間の撮像画像の表示画面を表示させる。より具体的には、例えば、当該撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて取得される撮像画像である。なお、当該撮像画像は、カメラ11により取得された撮像画像であってもよく、又は、カメラ11により取得された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。すなわち、実空間情報提供部181は、通信部110を介して、カメラ11の撮像画像を取得する。そして、実空間情報提供部181は、当該撮像画像を含む表示画面を生成し、表示部150に当該表示画面を表示させる。
(Real space information providing unit 181)
The real space information providing unit 181 provides real space information to the user of the
また、例えば、上記撮像画像は、実空間内にある複数の撮像装置のうちの選択された1つの撮像装置を通じて取得された撮像画像であってもよい。より具体的には、例えば、上記撮像画像は、センタオフィス10に配置された複数のカメラ11のうちの選択された1つのカメラ11を通じて取得された撮像画像であってもよい。なお、ユーザがカメラ11をどのように選択するかの具体的な手法は後述する。このように、ユーザがカメラ11を選択することができるので、ユーザは所望の位置からの撮像画像を見ることができる。
Further, for example, the captured image may be a captured image acquired through a selected one of the plurality of imaging devices in the real space. More specifically, for example, the captured image may be a captured image acquired through one selected
また、例えば、上記表示画面は、表示モードに応じた撮像画像を含む。より具体的には、例えば、上記表示画面は、第1の表示モードでは、実空間(例えばセンタオフィス10内)の第1の領域が撮像された第1の撮像画像を含み、第2の表示モードでは、実空間の、第1の領域よりも狭い第2の領域が撮像された第2の撮像画像を含む。即ち、実空間情報提供部181は、第1の表示モードでは、上記第1の撮像画像を表示部150に表示させ、第2の表示モードでは、上記第2の撮像画像を表示部150に表示させる。
Further, for example, the display screen includes a captured image according to the display mode. More specifically, for example, in the first display mode, the display screen includes a first captured image obtained by capturing a first region of the real space (for example, in the center office 10), and the second display The mode includes the second captured image in which the second region in the real space, which is narrower than the first region, is captured. That is, the real space information providing unit 181 displays the first captured image on the
さらに具体的には、例えば、上記第1の撮像画像は、第1のズーム率に対応する撮像画像である。そして、上記第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。例えば、実空間情報提供部181は、通信部110を介して、カメラ11へのズーム(光学ズーム、デジタルズーム、又は撮像装置の位置の変更によるズーム(例えば、ドリーによるズーム))に関する要求を行うことにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を取得する。または、実空間情報提供部181は、カメラ11の撮像画像に対するデジタルズームにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を取得してもよい。
More specifically, for example, the first captured image is a captured image corresponding to the first zoom ratio. Then, the second captured image is a captured image corresponding to a second zoom rate larger than the first zoom rate. For example, the real space information providing unit 181 makes a request regarding the zoom (optical zoom, digital zoom, or zoom by changing the position of the imaging device (for example, dolly zoom)) to the
なお、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものであればよい。例えば、カメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置等)であってもよい。第1のズーム率に対応する撮像画像は、被写体がより小さく写っている撮像画像であり、第1のズーム率よりも大きい第2のズーム率に対応する撮像画像は、当該被写体がより大きく写っている撮像画像であればよい。
The zoom ratio here does not have to be a delicate value such as 1.5 times or 2 times, and may be any value that directly or indirectly indicates the size of the size of the subject in the captured image. .. For example, when zooming by changing the position of the camera 11 (for example, zooming in and out by dolly) is used, the zoom rate is not a precise value such as 1.5 times or 2 times, but the size of the subject. Directly indicating the degree of the subject (for example, a parameter indicating the approximate size of the subject) or indirectly indicating the degree of the subject (eg, the position of the
一例として、上記表示画面は、俯瞰モードでは、X倍のズーム率(例えば、X=1)での撮像でカメラ11により生成された俯瞰撮像画像を含み、近接モードでは、Y倍のズーム率(Y>X)での撮像でカメラ11により生成された近接撮像画像を含む。即ち、俯瞰撮像画像は、センタオフィス10内のより広い領域が撮像された撮像画像であり、近接撮像画像は、センタオフィス10内のより狭い領域が撮像された撮像画像である。以下、これら撮像画像について、図4及び図5を参照してその具体例を説明する。
As an example, the display screen includes a bird's-eye view captured image generated by the
−俯瞰モードで表示される表示画面−
図4は、本実施形態に係る俯瞰モードで表示される表示画面の一例を説明するための説明図である。詳細には、図4には、俯瞰モードの表示画面60が示されている。当該表示画面60は、俯瞰撮像画像61、ボタン画像63、プレゼンスアイコン65、吹き出し画像67及びマップ画像69を含む。
-Display screen displayed in overhead view mode-
FIG. 4 is an explanatory diagram illustrating an example of a display screen displayed in the overhead view mode according to the present embodiment. More specifically, FIG. 4 shows a
俯瞰撮像画像61は、例えば、X倍のズーム率でのカメラ11により取得された撮像画像である。一例として、X=1である。即ち、俯瞰撮像画像61は、ズームなしでのカメラ11の撮像画像である。また、例えば、ユーザが、俯瞰撮像画像61の位置を指定すると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。より具体的には、例えば、ユーザが俯瞰撮像画像61内の所望の位置をタッチし、俯瞰撮像画像61に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。
The bird's-eye view captured
また、ボタン画像63は、別のカメラ11を選択するための画像である。例えば、ユーザが、ボタン画像63の位置を指定すると、実空間情報提供部181は、別のカメラ11の俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。より具体的には、例えば、ユーザがボタン画像63の位置をタッチし、ボタン画像63に対応するタッチ位置が検出されると、実空間情報提供部181は、別のカメラ11の俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。具体的には、図4の例においては、ボタン画像63Aの位置がユーザにより指定されると、現在のカメラ11の左側に位置するカメラ11が選択される。また、ボタン画像63Bの位置がユーザにより指定されると、現在のカメラ11の右側に位置するカメラ11が選択される。そして、実空間情報提供部181は、選択されたカメラ11の俯瞰撮像画像を取得し、表示部150に、当該俯瞰撮像画像を表示させる。
The button image 63 is an image for selecting another
また、プレゼンスアイコン65は、例えば、俯瞰撮像画像61に写る人物の繁忙度を示すアイコンである。より具体的には、プレゼンスアイコン65は、人物の繁忙度に応じて色が変わる。一例として、プレゼンスアイコンは、赤色の場合に繁忙度が高いことを示し、黄色の場合に繁忙度が普通であることを示し、青色の場合に繁忙度が低いことを示す。後述するように、俯瞰撮像画像61のうちのどこに人物が写っているはずであるかが分かるので、このようなアイコンを表示することも可能である。なお、人物の繁忙度については、当該人物に対応するPC等の端末装置100の操作状況(一定時間あたりの高頻度打鍵や業務アプリケーションの長期継続使用等が行われていれば当該人物は忙しいと判断する等)によって、判断してもよい。また、本実施形態においては、プレゼンスアイコン65は、上述のような形態に限定されるものではなく、例えば、白い色の円のアイコンである場合には、対応する人物が在席中であることを示し、黒色の円のアイコンである場合には、対応する人物が不在であることを示していてもよい。
Further, the
上述のように、表示画面60は、例えば、俯瞰撮像画像61に写る人物に関連する情報(以下、「人物関連情報」と呼ぶ)を含む。そして、人物関連情報は、例えば、上記人物の状態を示す状態情報を含む。上述したように、当該状態情報は、その一例としてプレゼンスアイコン65を挙げることができる。なお、人物関連情報は、2つ以上の時点における上記人物の状態を示す状態履歴を含んでもよい。また、一例として、当該状態履歴情報は、俯瞰撮像画像61に写る人物の繁忙度の履歴を含んでもよい。即ち、表示画面60に、人物の繁忙度の履歴が表示されてもよい。実空間情報提供部181は、例えば、通信部110を介して、情報管理サーバ200から人物関連情報、又は人物関連情報の表示に必要な情報を取得する。
As described above, the
本実施形態においては、このような人物関連情報により、ユーザは、人物が置かれている状況をより的確に把握することができる。また、上述の状態情報により、ユーザは、状態情報に対応する人物にコンタクトしてもよいかをより的確に判断することができる。また、状態履歴により、ユーザは、状態履歴に対応する人物の瞬時の状態だけではなく、ある期間での当該人物の状態を把握することができるので、ユーザは、当該人物にコンタクトしてもよいかをさらに的確に判断することができる。 In the present embodiment, such person-related information allows the user to more accurately understand the situation in which the person is placed. In addition, the above-mentioned status information allows the user to more accurately determine whether or not to contact the person corresponding to the status information. Further, the state history allows the user to grasp not only the instantaneous state of the person corresponding to the state history but also the state of the person in a certain period, so the user may contact the person. It can be judged more accurately.
また、吹き出し画像67は、俯瞰撮像画像61に写る人物により提示される文字情報を含む画像である。吹き出し画像67も、人物関連情報の一例である。
Further, the
また、マップ画像69は、センタオフェス10のマップを示す画像である。マップ画像69は、さらに、使用しているカメラ11をアイコン31により示す。なお、センタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像69は省略されてもよい。
The
−近接モードで表示される表示画面−
図5は、本実施形態に係る近接モードで表示される表示画面の一例を説明するための説明図である。詳細には、図5には、近接モードで表示される表示画面70が示されている。当該表示画面70は、近接撮像画像71、ボタン画像73及びマップ画像75を含む。
-Display screen displayed in proximity mode-
FIG. 5 is an explanatory diagram for explaining an example of a display screen displayed in the proximity mode according to the present embodiment. Specifically, FIG. 5 shows a
近接撮像画像71は、例えば、Y倍のズーム率(Y>X)でのカメラ11の撮像画像である。一例として、Y=1.5である。即ち、俯瞰撮像画像61は、1.5倍ズームの撮像でのカメラ11の撮像画像である。
The close-up captured
また、ボタン画像73は、表示モードを近接モードから俯瞰モードに切り替えるための画像である。例えば、ユーザが、ボタン画像73の位置を指定すると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。より具体的には、例えば、ユーザがボタン画像73をタッチし、ボタン画像73に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。
The
また、マップ画像75は、俯瞰モードにおけるマップ画像69と同様に、センタオフェス10のマップを示す画像である。マップ画像75は、さらに、使用しているカメラ11を示す。例えば、近接モードでは、ズームされたことを象徴的に示すために、マップ画像75の中の使用しているカメラのアイコン31が、撮影対象により近接した位置に表示される。なお、俯瞰モードにおけるマップ画像69と同様に、センタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像75は省略されてもよい。
Further, the
なお、近接モードで表示される表示画面70にも、プレゼンスアイコン65、吹き出し画像67等の人物関連情報が含まれてもよい。
The
以上のように表示モードを切り替えることにより、より広い領域が撮像された撮像画像が表示されることにより、ユーザは実空間の全体的な状況を見ることができ、また特定の人物を容易に見つけることができる。そして、より狭い領域が撮像された撮像画像が表示されることにより、ユーザは特定の人物の位置をより容易に指定することができる。また、本実施形態においては、ユーザは容易な操作により、表示モードを切り替えることができる。また、より広い領域が撮像された撮像画像とより狭い領域が撮像された撮像画像とは、互いにズーム率が異なる撮像画像であるため、ユーザは、これらの撮像画像間の関係を直感的に容易に把握することができる。よって、ユーザは、表示モードが切り替わったとしても、特定の人物を容易に見つけ、当該特定の人物の位置を指定することができる。 By switching the display mode as described above, the captured image in which a wider area is captured is displayed, so that the user can see the overall situation in the real space and easily find a specific person. be able to. Then, by displaying the captured image in which a narrower area is captured, the user can more easily specify the position of a specific person. In addition, in this embodiment, the user can switch the display mode by an easy operation. In addition, since the captured image in which the wider area is captured and the captured image in which the narrower area is captured are captured images having different zoom rates, the user can intuitively easily understand the relationship between these captured images. Can be grasped. Therefore, even if the display mode is switched, the user can easily find a specific person and specify the position of the specific person.
−その他の実空間情報−
以上のように、実空間情報提供部181は、表示部150に実空間の撮像画像の表示画面を表示させることにより、実空間の視覚的な情報を提供する。さらに、実空間情報提供部181は、実空間の聴覚的な情報も提供してもよい。即ち、実空間情報提供部181は、音声出力部160に、実空間での集音により得られた音声データの音声を出力させてもよい。例えば、実空間情報提供部181は、ユーザにより選択されたカメラ11に近いマイクロフォン13を選択する。そして、実空間情報提供部181は、通信部110を介して、当該マイクロフォン13から、センタオフィス10での集音により得られた音声データを取得する。そして、実空間情報提供部181は、音声出力部160に、取得した音声データの音声を出力させてもよい。
-Other real space information-
As described above, the real space information providing unit 181 provides the visual information of the real space by displaying the display screen of the captured image of the real space on the
(音声出力制御部182)
音声出力制御部182は、制御部180が通信部110を介して取得したデータに基づいて、音声出力部160による音声出力を制御する。具体的には、音声出力制御部182は、上記データに基づいて、音声出力部160から出力される音声の音量を制御する。
(Voice output control unit 182)
The audio
(位置取得部183)
位置取得部183は、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を検出すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、当該撮像画像内の位置をオブジェクト選択部185に提供する。
(Position acquisition unit 183)
The
例えば、位置取得部183は、図5の近接撮像画像71内のいずれかの位置を取得した場合に、当該位置をオブジェクト選択部185に提供する。以下、位置取得部183による位置の取得及び提供について図6及び図7を参照して具体的に説明する。
For example, when the
図6は、ユーザにより指定される近接撮像画像71内の位置の第1の例を説明するための説明図である。図6には、近接モードの表示画面に含まれる近接撮像画像71、及びユーザの手3が、示されている。また、図6には、近接撮像画像71に写る人物の人物画像77が示されている。そして、ユーザは、手3で人物画像77の位置をタッチすることにより、近接撮像画像71の人物画像77の位置を指定している。この場合に、入力部120は、近接撮像画像71の人物画像77の上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。
FIG. 6 is an explanatory diagram for describing a first example of the position in the close-up captured
図7は、ユーザにより指定される近接撮像画像71内の位置の第2の例を説明するための説明図である。図7には、近接撮像画像71に写る人物画像77A及び77Bが示されている。そして、ユーザは、手3で人物画像77Aの位置をタッチすることにより、近接撮像画像71の人物画像77Aの位置を指定している。この場合に、入力部120は、近接撮像画像71の人物画像77Aの上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。
FIG. 7 is an explanatory diagram for explaining a second example of the position in the close-up captured
(オブジェクト選択部185)
オブジェクト選択部185は、取得される撮像画像内の位置に基づいて、実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。例えば、位置取得部183が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得すると、オブジェクト選択部185は、当該位置に基づいて、上記実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。詳細には、上記オブジェクトは、上記撮像画像内の上記位置に対応する上記3次元仮想空間内の3次元仮想位置に配置されたオブジェクトである。また、例えば、上記撮像画像は、表示画面に含まれる上記第2のモード(例えば、近接モード)の撮像画像である。例えば、位置取得部183が、カメラ11により生成された近接撮像画像71内の位置を取得すると、オブジェクト選択部185は、センタオフィス10に対応する3次元仮想空間に配置されたオブジェクトのうちの、上記位置に対応するオブジェクトを選択する。なお、オブジェクト選択部185は、例えば、センタオフィス10に対応する3次元仮想空間のデータを記憶部170から取得する。
(Object selection unit 185)
The
−1つのオブジェクトが配置されている場合の例−
以下、図8及び図9を参照して、3次元仮想空間90に1つのオブジェクト91が配置されている場合の3次元仮想空間90の具体例を説明する。図8は、センタオフィス10に対応する3次元仮想空間90の第1の例を説明するための説明図である。図8においては、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91が配置されている。当該オブジェクト91は、人物(例えば、A氏)に対応する。そして、当該オブジェクト91は、センタオフィス10の当該人物(例えば、A氏)の座席の位置に対応する3次元仮想位置に配置される。即ち、上記人物が座席に座っている場合には上記人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクト91が配置される。この例では、オブジェクト91は、円柱状のオブジェクトである。当該円柱状のオブジェクト91は、例えば、半径R及び高さHを伴う円柱のオブジェクトである。半径R及び高さHは、例えば、予め定められている。なお、3次元仮想空間90のデータには、各カメラ11に関連する情報も含まれている。例えば、各カメラ11に関連する情報は、各カメラ11の設置位置に対応する3次元仮想位置、撮像方向(例えば、カメラのレンズと垂直な方向)、画角等を含む。
-Example when one object is placed-
Hereinafter, a specific example of the three-dimensional
図9は、図8に示される3次元仮想空間90に配置されたオブジェクト91の選択の一例を説明するための説明図である。図9においては、理解を容易にするために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、図9では、3次元仮想空間90に配置されたオブジェクト91、撮像に用いられるカメラ11の設置位置に対応する3次元仮想位置(以下、「仮想カメラ位置」と呼ぶ)O、カメラ11の撮像方向(例えば、カメラのレンズと垂直な方向)に対応する軸y、及び、軸yと直交する軸xが、示されている。図9の例では、理解を容易にするために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように、設置されているものとする。
FIG. 9 is an explanatory diagram for explaining an example of selection of the
さらに、図9においては、カメラ11の画角θも示されている。また、図9においては、カメラ11の撮像方向に対応する軸yに垂直であり、且つ画角θに対応する幅を有する仮想面93が示されている。また、仮想面93は、仮想カメラ位置Oから距離Iだけ離れている。そして、仮想面93は、四角形の面であり、撮像画像と同一の縦横比を有する。即ち、仮想面93は、撮像画像に対応する面である。
Further, in FIG. 9, the angle of view θ of the
オブジェクト選択部185は、例えば、図6に示されるようにユーザにより指定される上記撮像画像内の位置を、3次元仮想位置Aに変換する。そして、オブジェクト選択部185は、仮想カメラ位置Oと3次元仮想位置Aとを通る直線に交わるオブジェクトを特定する。すなわち、オブジェクト選択部185は、オブジェクト91を特定する。そして、オブジェクト選択部185は、オブジェクト91を選択する。図9の例では、例えば、仮想面93のうちの3次元仮想位置Bと3次元仮想位置Dとの間にある3次元仮想位置に変換される撮像画像内の位置が、撮像画像内でユーザにより指定されると、オブジェクト91が選択される。なお、このような位置は、概ね、撮像画像においてオブジェクト91に対応する人物が写っている位置である。なお、距離Iは、仮想カメラ位置Oとオブジェクト91との間に仮想面93が位置するように決定される。一例として、距離Iは、カメラ11の焦点距離であるが、当然ながら本実施形態においてはこれに限られない。
The
また、上記においては、3次元仮想空間90の水平面に着目してオブジェクト91を選択する手法を説明したが、当該手法によれば、当然ながら、垂直方向(例えば、z軸)での処理を加えたとしても、撮像画像内の位置を3次元仮想位置に変換して当該3次元仮想位置からオブジェクト91を特定することが可能である。また、上述した例では、撮像画像内の位置を3次元仮想位置に変換することにより、撮像画像内の位置に対応するオブジェクト91が特定されたが、本実施形態においては、撮像画像内の位置に対応するオブジェクト91を特定する手法は、これに限られない。
Further, in the above, the method of selecting the
一例として、オブジェクト選択部185は、仮想カメラ位置Oを原点としてオブジェクト91を仮想面93に射影し、オブジェクト91の射影範囲を、撮像画像内の範囲に変換してもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。
As an example, the
また、別の例としては、仮想カメラ位置O、軸y及び画角θを用いて3次元仮想空間90のレンダリングを行うことにより、レンダリング画像を生成し、当該レンダリング画像のうちのオブジェクト91が写っている範囲から、オブジェクト91に対応する撮像画像内の範囲を得てもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。
As another example, a rendering image is generated by rendering the three-dimensional
−状態を考慮したオブジェクトの選択
また、例えば、3次元仮想空間90に配置されるオブジェクト91は、複数の状態のうちのいずれかの状態を示す状態情報に対応する。例えば、オブジェクト91は、人物に対応する。そして、オブジェクト91は、当該人物が座席に座っているか否かを示す状態情報(以下、「存否情報」と呼ぶ)に対応する。当該存否情報は、人物が座席に座っている状態、又は人物が座席に座っていない状態を示す。オブジェクト選択部185は、例えば、オブジェクト91に対応する人物が座席に座っているか否かの判定結果を、通信部110を介してセンサ15から取得する。そして、当該判定結果が存否情報となる。
-Selection of Object Considering State Also, for example, the
そして、例えば、オブジェクト選択部185は、上記3次元仮想空間90に配置されたオブジェクト91であって、上記複数の状態のうちの所定の状態を示す状態情報に対応する上記オブジェクト91を、選択する。より具体的には、オブジェクト選択部185は、上記3次元仮想空間90に配置されたオブジェクト91であって、人物が座席に座っている状態を示す状態情報に対応するオブジェクト91を、選択する。即ち、オブジェクト選択部185は、センサ15により人物が座席に座っていると判定される場合には、当該人物に対応するオブジェクト91を選択し得るが、センサ15により人物が座席に座っていないと判定される場合には、当該人物に対応するオブジェクト91を選択しない。
Then, for example, the
このように、本実施形態においては、人物の状態に応じてオブジェクト91が選択されるので、本来選択されるべきでないオブジェクト91が選択されることを回避することができる。例えば、本実施形態においては、人物がいない場合に当該人物に対応するオブジェクト91が選択されてしまうことを、回避することができる。
As described above, in the present embodiment, the
−2つのオブジェクトが配置されている場合の例
また、3次元仮想空間90内に2つ以上のオブジェクト91が配置され得る。以下、2つのオブジェクト91が配置される場合の3次元仮想空間90の具体例を、図10を参照して説明する。図10は、センタオフィス10に対応する3次元仮想空間90の第2の例を説明するための説明図である。図10には、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91A及びオブジェクト91Bが配置されている。オブジェクト91Aは、ある人物(例えば、A氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Bは、ある人物(例えば、B氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。図8の例と同様に、オブジェクト91は、半径R及び高さHを伴う円柱状のオブジェクトである。
-Example in which two objects are arranged Further, two or
このように3次元仮想空間90内に2つ以上のオブジェクト91が配置される場合には、複数のオブジェクト91が、ユーザにより指定される撮像画像内の位置に対応し得る。例えば、図10の例において、オブジェクト91Aとオブジェクト91Bの両方が、ユーザにより指定される撮像画像内の位置に対応し得る。一例として、図7に示されるように撮像画像内に2人の人物が写り得るような場合に、ユーザが、撮像画像において当該2人の人物が重なり合う位置を指定すると、当該2人の人物に対応する2つのオブジェクト91が、上記位置に対応し得る。
When two or
そこで、このような場合(即ち、複数のオブジェクト91が、ユーザにより指定される撮像画像の位置に対応する場合)には、オブジェクト選択部185は、上記複数のオブジェクト91のうちのいずれか1つのオブジェクト91を選択する。即ち、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する3次元仮想空間90内の3次元仮想位置にそれぞれ配置された複数のオブジェクト91がある場合に、当該複数のオブジェクト91のうちのいずれか1つのオブジェクト91を選択する。
Therefore, in such a case (that is, in the case where the plurality of
例えば、上記撮像画像は、実空間内にある撮像装置を通じて生成される。そして、オブジェクト選択部185は、上記複数のオブジェクト91のうちの、上記撮像装置に対応する3次元仮想空間90内の3次元仮想位置により近いオブジェクト91を選択する。より具体的には、例えば、撮像画像は、センタオフィス10内にあるカメラ11を通じて取得される。そして、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する複数のオブジェクト91がある場合に、カメラ11の設置位置に対応する3次元仮想位置(即ち、仮想カメラ位置O)により近いオブジェクト91を選択する。以下、この点について図10及び図11を参照して具体例を説明する。
For example, the captured image is generated through an image capturing device in the real space. Then, the
図11は、図10に示される3次元仮想空間90に配置されたオブジェクト91の選択の一例を説明するための説明図である。図11においては、理解を容易にするために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、図11においては、3次元仮想空間90に配置されたオブジェクト91A及びオブジェクト91Bが示されている。また、図11においては、図9と同様に、仮想カメラ位置O、軸y、軸x、画角θ及び仮想面93が、示されている。この図11の例でも、図9と同様に、理解を容易にするために、カメラ11は、当該カメラ11の撮像方向が水平面に並行になるように、設置されているものとする。
FIG. 11 is an explanatory diagram for explaining an example of selection of the
例えば、図7に示されるようにユーザにより上記撮像画像内の位置が指定される。この場合に、図9を参照して説明した手法に従うと、撮像画像内の上記位置が、3次元仮想位置B’と3次元仮想位置Dとの間にある3次元仮想位置に変換される場合には、オブジェクト91A及びオブジェクト91Bの両方が、撮像画像内の上記位置に対応するオブジェクトとして特定される。そして、オブジェクト選択部185は、オブジェクト91A及びオブジェクト91Bのうちの、仮想カメラ位置Oにより近いオブジェクト91Aを選択する。
For example, as shown in FIG. 7, the user specifies the position in the captured image. In this case, according to the method described with reference to FIG. 9, the position in the captured image is converted into a three-dimensional virtual position between the three-dimensional virtual position B′ and the three-dimensional virtual position D. In this case, both the
なお、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Bと3次元仮想位置B’との間にある3次元仮想位置に変換される場合には、オブジェクト91Aが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。また、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Dと3次元仮想位置D’との間にある3次元仮想位置に変換される場合には、オブジェクト91Bが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。
Note that when the position in the captured image designated by the user is converted into a three-dimensional virtual position between the three-dimensional virtual position B and the three-dimensional virtual position B′, the
このように、本実施形態においては、複数のオブジェクト91から1つのオブジェクト91が選択されることにより、複数のオブジェクト91が選択されることに起因してその後の処理でエラー(複数の通信用IDを取得することによるエラー)が発生することを、回避することができる。また、複数のオブジェクト91のうちのカメラ11に対応する仮想カメラ位置に近いオブジェクト91が選択されることにより、例えば、撮像画像において人物が重なりあっているような場合でも、手前に写っている人物に対応するオブジェクト91が選択される。従って、ユーザは、ユーザが意図した人物に対応するオブジェクト91が選択することができる。
Thus, in the present embodiment, when one
以上のように、オブジェクト選択部185は、オブジェクト91を選択する。そして、オブジェクト選択部185は、選択したオブジェクト91の識別情報(以下、「オブジェクトID」と呼ぶ)をID取得部187に提供する。当該オブジェクトIDは、選択されたオブジェクト91に対応する人物の識別情報であってもよく、又は、選択されたオブジェクト91に付された単なる番号(例えば、数字や文字等で構成される)であってもよい。
As described above, the
(会話オブジェクト選択部191)
会話オブジェクト選択部191は、後述する「COMMリンク」オブジェクトを選択する。位置取得部183が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得すると、会話オブジェクト選択部191は、当該位置に基づいて、上記実空間に対応する3次元仮想空間に配置されたCOMMリンク(すなわち、会話イベントオブジェクト)を選択する。なお、COMMリンクは、例えば、通話に対応するオブジェクトであり、線分状の形状を持ち、その両端には、当該通話に関わる人物に対応するオブジェクト91等が位置する。当該COMMリンクの詳細については後述する。
(Conversation object selection unit 191)
The conversation
(ID取得部187)
ID取得部187は、選択される上記オブジェクト91に対応する識別情報を取得する。例えば、当該識別情報は、選択される上記オブジェクト91に対応する通信用の識別情報(以下、「通信用ID」と呼ぶ)である。当該通信用IDは、一例として電話番号が挙げられる。具体的には、例えば、オブジェクト選択部185が、オブジェクト91を選択すると、ID取得部187は、選択された当該オブジェクト91のオブジェクトIDを取得する。そして、オブジェクト選択部185は、通信部110を介して、オブジェクトIDを情報管理サーバ200へ送信し、オブジェクトIDに対応する通信用IDを取得する。当該通信用IDは、選択されたオブジェクト91に対応する人物の通信用IDである。当該通信用IDは、オブジェクト91に対応する人物(即ち、ユーザにより指定された撮像画像の位置に写っている人物)の通信装置の通信用IDである。そして、ID取得部187は、取得した通信用IDを後述する電話部189に提供する。
(ID acquisition unit 187)
The
以上のように、本実施形態においては、ユーザにより撮像画像内の位置が指定されると、当該位置に対応するオブジェクト91が選択され、当該オブジェクト91に対応する通信用IDが取得される。これにより、ユーザは、直感的な操作で対象の人物にコンタクトすることが可能になる。また、撮像画像において人物がどのように写っているかによらず、当該人物に対応するオブジェクト91が選択され、通信用IDが取得されるので、より確実に当該人物にコンタクトすることが可能になる。
As described above, in the present embodiment, when the position in the captured image is designated by the user, the
また、ID取得部187は、選択される会話オブジェクトに対応する複数の識別情報、具体的には、後述するCOMMリンクの線分の両端に位置するオブジェクト91に対応する2以上の話者の通信用IDを取得することもできる。具体的には、例えば、オブジェクト選択部185が、会話オブジェクト(COMMリンク)を選択すると、ID取得部187は、選択された会話オブジェクトの両端に位置するオブジェクト91に対応する2以上の話者のオブジェクトIDを取得する。そして、オブジェクト選択部185は、通信部110を介して、ID取得部187により取得された上記2以上のオブジェクトIDを情報管理サーバ200へ送信し、オブジェクトIDに対応する通信用IDを取得する。当該通信用IDは、選択されたオブジェクト91に対応する人物の通信用IDである。さらに、ID取得部187は、オブジェクト選択部185により取得された複数の通信用IDを取得する。そして、ID取得部187は、取得した通信用IDを電話部189に提供する。
Further, the
以上のように、ユーザにより撮像画像内の位置が指定されると、当該位置に対応する会話オブジェクトが選択され、当該会話オブジェクトに対応する複数の通信用IDが取得される。これにより、ユーザは、遠隔会話という不可視の存在を直感的な操作で指定することが可能になり、既存のたとえば二者通話への参入による三者通話への移行操作が容易に実施できるようになる。 As described above, when the position in the captured image is designated by the user, the conversation object corresponding to the position is selected, and the plurality of communication IDs corresponding to the conversation object are acquired. As a result, the user can specify the invisible presence of remote conversation by an intuitive operation, and can easily perform the operation of transitioning to the existing three-way call by joining the existing two-way call, for example. Become.
(電話部189)
電話部189は、電話を行うための機能を提供する。例えば、電話部189は、ソフトフォンの機能を提供する。例えば、電話部189は、ID取得部187により提供される通信用IDを取得すると、当該通信用IDを用いて電話発信を行う。より具体的には、例えば、電話部189は、通信用IDを取得すると、通信部110を介して、当該通信用IDをPBX40に提供し、PBX40からIPアドレスを取得する。そして、電話部189は、当該IPアドレスを有する通信装置(即ち、着信先の通信装置)との間で、セッションを確立するための一連のシーケンスを実行する。このように、電話部189は、表示画面においてユーザにより指定された撮像画像内の位置に写る人物への電話のための電話発信を行う。即ち、電話部189は、当該人物の通信装置への電話発信を行う。
(Telephone section 189)
The
また、電話の相手先の通信装置からの音声データが、通信部110により受信されると、電話部189は、音声出力部160に、当該音声データの音声を出力させる。また、電話部189は、通信部110に、集音部140により提供される音声データを電話の相手先の通信装置へ送信させる。また、電話部189は、例えば、通信部110に、撮像部130により提供される撮像画像(例えば、端末装置100のユーザが写っている撮像画像)も電話の相手先の通信装置へ送信させる。
When voice data from the communication device of the other party of the call is received by the
また、電話部189は、表示部150に、電話時の表示画面を表示させる。例えば、電話時の表示画面を表示する表示モードを、会話モードと呼ぶ。この場合に、電話部189は、ID取得部187により提供される通信用IDを取得すると、表示モードを、近接モードから会話モードへ切り替える。以下、会話モードの表示画面について図12を参照してその具体例を説明する。
In addition, the
図12は、会話モードで表示される表示画面80の一例を説明するための説明図である。図12においては、会話モードで表示される表示画面80が示されている。当該表示画面80は、相手側撮像画像81、ボタン画像83及び自分側撮像画像85を含む。
FIG. 12 is an explanatory diagram for explaining an example of the
相手側撮像画像81は、例えば、電話の相手先の通信装置から取得された撮像画像である。例えば、電話の相手先の通信装置からの撮像画像が、通信部110により受信されると、電話部189は、当該撮像画像を相手側撮像画像81として利用する。
The other party's captured
また、ボタン画像63は、電話を終了させるための画像である。例えば、ユーザが、ボタン画像83の位置を指定すると、電話部189は、通話を終了させる。より具体的には、例えば、ユーザがボタン画像83をタッチし、ボタン画像83に対応するタッチ位置が検出されると、電話部189は、セッションの切断を含む電話終了用のシーケンスを実行する。また、例えば、電話部189は、表示モードを会話モードから俯瞰モードに切り替える。
The button image 63 is an image for ending the call. For example, when the user specifies the position of the
自分側撮像画像85は、撮像部130により提供される撮像画像である。
The own-side captured
−表示モードの遷移−
ここでは、表示画面の表示モードの遷移、すなわち、俯瞰モード、近接モード及び会話モードの遷移の具体例を、図13を参照して説明する。図13は、表示モードの遷移の一例を説明するための遷移図である。図13を参照すると、例えばソフトウェアの起動時において、カメラ11、マイクロフォン13、センサ15、情報管理サーバ200等との接続処理が行われると、表示モードは、俯瞰モード301になる(ENTRY)。
− Transition of display mode −
Here, a specific example of the transition of the display mode of the display screen, that is, the transition of the overhead view mode, the proximity mode, and the conversation mode will be described with reference to FIG. 13. FIG. 13 is a transition diagram for explaining an example of transition of display modes. Referring to FIG. 13, for example, when the connection process with the
俯瞰モード301では、俯瞰モード処理が実行される(DO)。そして、ユーザが、俯瞰撮像画像61の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、俯瞰モード301から近接モード303に切り替わる。モード変更処理は、カメラ11のズーム処理を含む(ENTRY)。
In the
近接モード303では、近接モード処理が実行される(DO)。そして、ユーザが、近接撮像画像71のうちの人物が写っている位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から会話モード305に切り替わる。この場合のモード変更処理は、通話のための処理を含む(ENTRY)。また、ユーザが、ボタン画像73の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。
In the
会話モード305では、会話モード処理が実行される(DO)。また、ユーザが、ボタン画像83をタッチすると、モード変更処理が行われ(EXIT)、表示モードは、会話モード305から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。
In the
−表示モードに応じた撮像画像-
上述したように、例えば、実空間情報提供部181は、第1の表示モード(例えば、俯瞰モード)では、実空間の第1の領域が撮像された第1の撮像画像(例えば、俯瞰撮像画像61)を表示部150に表示させる。また、実空間情報提供部181は、第2の表示モード(例えば、近接モード)では、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像(例えば、近接撮像画像71)を表示部150に表示させる。そして、上述した例では、実空間の第1の領域が撮像された第1の撮像画像は、第1のズーム率に対応する撮像画像であり、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。しかしながら、本実施形態においては、上記第1の撮像画像及び上記第2の撮像画像はこれに限られない。
-Captured image according to display mode-
As described above, for example, in the first display mode (for example, bird's-eye view mode), the real space information providing unit 181 uses the first captured image (for example, the bird's-eye view captured image) in which the first region of the real space is captured. 61) is displayed on the
例えば、実空間情報提供部181は、俯瞰モードの際には、センタオフィス10の広い領域を撮像するカメラ11を選択し、当該カメラ11の撮像画像を俯瞰撮像画像61として取得する。そして、実空間情報提供部181は、近接モードの際には、センタオフィス10のより狭い領域を撮像するカメラ11(例えば、より前方にあるカメラ)を選択し、選択されたカメラ11の撮像画像を近接撮像画像71として取得する。
For example, in the overhead view mode, the real space information providing unit 181 selects the
これにより、カメラ11の配置によっては、カメラ11により取得された撮像画像により、より容易に人物の位置を指定しやすくなる。このような場合には、カメラ11にズームを要求しなくてもよいことがある。その結果、この場合、例えば、光学ズーム又はドリーによるズームを要求する場合のように、個別の複数の端末装置100からの同一のカメラ11に対する要求が競合し、いずれかの端末装置100に待ち状態が生じるようなこともない。また、この場合には、例えば、デジタルズームを用いる場合のように、処理量が増大するようなこともない。
Thereby, depending on the arrangement of the
−より自由な条件での撮像により生成される撮像画像−
また、上述した例では、表示モードが切り替えられる例を説明したが、本実施形態においては、表示画面はこれに限られない。例えば、表示モードの切り替えの代わりに、より自由な条件での撮像により撮像画像が取得され、当該撮像画像を含む表示画面が表示されてもよい。例えば、実空間の撮像画像は、複数のズーム率のうちの選択されたズーム率に対応する撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、入力部120を介してユーザにより指定されるズーム率を、通信部110を介してカメラ11に要求する。その結果、カメラ11は、ズーム率を要求に従って変更し、変更後のズーム率での撮像により生成された撮像画像を端末装置100に提供する。そして、実空間情報提供部181は、表示部150に、提供された撮像画像を含む表示画面を表示させる。そして、ユーザは、当該撮像画像内の位置を指定すると、位置取得部183は、当該位置を取得する。さらに、位置取得部183は、撮像画像内の当該位置をオブジェクト選択部185に提供する。これにより、ユーザは、細かいズーム率を指定して、所望の撮像画像を表示することができる。よって、ユーザは、撮像画像を用いて、特定の人物の位置をより指定しやすくなる。
-Captured image generated by imaging under more free conditions-
Moreover, although the example in which the display mode is switched has been described in the above-described example, the display screen is not limited to this in the present embodiment. For example, instead of switching the display mode, a captured image may be acquired by capturing under more free conditions, and a display screen including the captured image may be displayed. For example, the captured image in the real space may be a captured image corresponding to the selected zoom ratio of the plurality of zoom ratios. In this case, for example, the real space information providing unit 181 requests the
なお、上述したように、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものである。例えば、とりわけカメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ、等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置等)であってもよい。
Note that, as described above, the zoom ratio here does not have to be a delicate value such as 1.5 times or 2 times, and directly or indirectly indicates the degree of the size of the subject captured in the captured image. It is a thing. For example, especially when zooming by changing the position of the camera 11 (for example, zooming in and out by dolly) is used, the zoom ratio is not a precise value such as 1.5 times or 2 times, but the size of the subject. That directly indicates the size of the subject (for example, a parameter that indicates the size of the subject, or the like) or indirectly indicates the size of the subject (eg, the position of the
(COMMリンク制御部193)
COMMリンク制御部193は、「COMMリンク」オブジェクトに関する情報を情報管理サーバ200から受信し、当該COMMリンクの表示の制御等を行う。
(COMM link control unit 193)
The COMM
ここで、「COMMリンク」オブジェクトとは、本明細書においては、端末装置100の表示部150の画面に提示されるユーザインタフェースの表示要素または入力要素であってもよい。より具体的には、COMMリンクは、端末装置100の集音部140を介して通話を行っている、例えば人物Cと人物Dに関して、人物Cに対応するオブジェクト91に対応する撮像画像内の位置と、人物Dに対応するオブジェクト91に対応する撮像画像内の位置とを結ぶ「線分」または曲線の「弦」である。当該COMMリンクは、センタオフィス10に対応する3次元仮想空間90内に3次元の線分または曲線弦として存在することができる(図14を用いて後述する)。
Here, in the present specification, the “COMM link” object may be a display element or an input element of a user interface presented on the screen of the
なお、上記人物Cと上記人物Dは実空間上の異なる拠点に存在していても構わず、その場合は、COMMリンクは異なる拠点をそれぞれ撮影した複数の撮像画像間をまたいで表示されても構わない。また、COMMリンクは、一人の人物に対し2以上同時に存在してもよく、例えば、三者通話の場合は人物L、人物M、人物Nに対応する3つの位置をたとえば三角形の3辺状につなぐ3本のCOMMリンクが存在し表示されても構わない。さらに、ユーザが、三角形やそれ以上の頂点を有する多角形を構成するCOMMリンクの内部領域の一部を指定することで、多角形等を構成する複数のCOMMリンクの端に位置する複数のオブジェクト91のすべてを指定できるようにしてもよい(このような表示例としては、後述する図16が挙げられる)。なお、当該多角形のCOMMリンクにおいては、同一の多角形を構成する複数の辺が、互いに交差しないように構成されていることが好ましい。 The person C and the person D may exist at different bases in the real space, and in that case, the COMM link may be displayed across a plurality of captured images of the different bases. I do not care. Further, two or more COMM links may exist for one person at the same time. For example, in the case of a three-way call, three positions corresponding to the person L, the person M, and the person N are formed into, for example, three sides of a triangle. There may be three COMM links to be connected and displayed. Further, the user designates a part of the internal area of the COMM link that forms a triangle or a polygon having vertices or more, so that a plurality of objects located at the ends of the plurality of COMM links that form the polygon or the like. All of 91 may be designated (FIG. 16 to be described later is an example of such a display). In addition, in the polygonal COMM link, it is preferable that a plurality of sides forming the same polygon are configured not to intersect with each other.
なお、COMMリンクの基礎となる会話行動(通話動作)は、端末装置100の集音部140を介したものでなくてもよい。例えば、後述する情報管理サーバ200は、本実施形態に係る情報処理システムが備える複数のマイクロフォン13のパラメータとして各マイクロフォン13の設置位置や集音方向に関する情報を記録し更新してもよい。この場合、情報管理サーバ200は、上記会話行動(通話動作)の話者である人物のオブジェクト91の位置情報から最も近い位置に設置されたマイクロフォン13から集音された音声データを利用し、前述のCOMMリンクや後述するCOMMワード(発言語句オブジェクト)の生成や管理に係る処理を行ってもよい。
The conversation behavior (calling operation) that is the basis of the COMM link does not have to be via the
COMMリンクは、COMMリンク制御部193により表示部150が制御されることにより、端末装置100の表示部150の画面上、例えば図4の俯瞰撮像画像61上やマップ画像69上に射影して重畳表示される(図15を用いて後述する)。端末装置100の表示画面を見たユーザは、実空間の写像画像上に表示されたCOMMリンクを視認することで、分散環境にいる複数の遠隔地の誰と誰とが通話状態にあるかを直感的に把握することができる。さらに、会話(通話)という音声情報ベースの行為がCOMMリンクにより可視化されることで、たとえば遠隔地の音声データを取得・出力できず画像データのみの遠隔通信にメディア情報共有が制限される場合でも、ユーザは、COMMリンクが表示された端末装置100の表示画面を見て遠隔地での会話行為の発生を知ることができる。
The COMM link is projected and superposed on the screen of the
以下に、COMMリンク86の一例を、図14を参照して説明する。図14は、センタオフィス10に対応する3次元仮想空間90内におけるCOMMリンク86の一例を説明するための説明図である。この3次元仮想空間90に関するデータは、先に説明したように、情報管理サーバ200が管理している。図14においては、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91C及びオブジェクト91Dが配置されている。オブジェクト91Cは、たとえば人物Cに対応し、センタオフィス10内の人物Cの座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Dは、たとえば人物Dに対応し、センタオフィス10内の人物Dの座席の位置に対応する3次元仮想位置に配置される。図8や図10の例と同様に、これらオブジェクト91は、たとえば半径R及び高さHを伴う円柱状のオブジェクトである。また、図14においては、オブジェクト91Cおよびオブジェクト91Dそれぞれの3次元重心位置92Cおよび92Dも示されている。なお、本実施形態においては、3次元重心位置92Cおよび92Dは、幾何学的な3次元の重心位置でなくてもよく、それぞれオブジェクト91の3次元形状内に含まれている位置(点)であればよく、例えばオブジェクト91の上面中心位置であってもよい。また、図14には、上記3次元重心位置92Cと92Dを両端とする線分状のCOMMリンク86が示されている。このようにCOMMリンク86はオブジェクトの一種として3次元仮想空間90内に位置や形状等の情報を有することができる。なお、COMMリンク86の生成については、後述する。
Hereinafter, an example of the
そして、前述のように、COMMリンク86は通話中状態である端末装置100のユーザである人物のオブジェクト91間をつなぐオブジェクトであるため、当該COMMリンク86は、その線分の両端に位置する、最低2以上のオブジェクト91とそれに対応する通信用IDのデータと紐づく。たとえば、図14におけるCOMMリンク86を、後述するような入力方法でユーザが指定すると、当該ユーザの端末装置100は、COMMリンク86の両端の位置にあるオブジェクト91Cおよびオブジェクト91Dの通信用IDの情報を取得することができる。これにより、当該ユーザの端末装置100は、例えば、当該ユーザのCOMMリンク86というひとつのオブジェクトを指定する1操作に基づいて、オブジェクト91Cとオブジェクト91Dという異なる位置にある2つのオブジェクト91を同時に選択することができる。さらに、当該ユーザの端末装置100は、上述の2つのオブジェクト91に対応する人物Cと人物Dそれぞれの通信用IDを利用して、人物Cと人物D(に対応する端末装置100)にアクセスすることができる。すなわち、ユーザは、二者通話中の人物Cと人物Dに対して、両者をつなぐCOMMリンク86を指定する1操作を行うことにより、当該二者通話に参加することができ、容易に、人物C及び人物Dとの三者通話を行うことができる。
Then, as described above, since the
また、実空間上で三者通話と二者通話との2つの通話が存在する場合に、三者通話を示す三角形状のCOMMリンクを、二者通話の一方の話者が指定した場合には、三者通話のCOMMリンクを指定した話者のみが三者通話に参加するようにしてもよく、もしくは、二者通話の両方の話者が、三者通話に参加するようにしてもよい。さらに、三者通話のCOMMリンクを指定した話者のみが三者通話に参加した後に、三者通話の複数の話者が許可した場合に、二者通話の残りの話者が三者通話に参加してもよい。 Also, when two calls, a three-way call and a two-way call, exist in the real space, when one of the two-way calls specifies a triangular COMM link indicating the three-way call. , Only the speaker who has designated the COMM link for the three-way call may participate in the three-way call, or both speakers of the two-way call may participate in the three-way call. Furthermore, if only the speaker who specified the COMM link for the three-way call participates in the three-way call, and if more than one speaker in the three-way call permits, the remaining two-way caller becomes the three-way call. You may participate.
(COMMワード制御部195)
COMMワード制御部195は、後述する「COMMワード」オブジェクトに関する情報を情報管理サーバ200から受信し、COMMワードの表示の制御を行う。また、COMMワード制御部195は、通信部110に、集音部140により提供される音声データを情報管理サーバ200へ送信させる。この時、COMMワード制御部195は、送信する音声データに、音声を発した人物に対応する通信用IDのデータを付与して送信してもよい。当該通信用IDを特定する処理は、端末装置100が、当該端末装置100のユーザとしてあらかじめ登録された人物に対応する通信用IDを選択したり、音声認識サーバ201が話者認識処理を行い音声データから発話人物を特定したりすることで実施してもよい。
(COMM word control unit 195)
The COMM
ここで、「COMMワード」オブジェクトとは、本明細書においては、端末装置100の表示部150の画面に提示されるユーザインタフェースの表示要素であってもよい。より具体的には、COMMワードは、端末装置100を介した通話内容の要部が音声認識処理で抽出され、可視化処理されて前述のCOMMリンク86の近傍位置に表示されるオブジェクトであってもよい。たとえば、人物Cと人物Dがそれぞれ端末装置100Cと端末装置100Dを介して二者通話を行っている。この時、端末装置100Cと100Dからそれぞれ入力された人物Cと人物Dの音声データは、端末装置100Cと100Dのそれぞれの通信用IDのデータを付与されて情報管理サーバ200へ送信される。情報管理サーバ200は受信した音声データを音声認識サーバ201へ送信し、音声認識サーバ201からその認識結果となる語句データを受信して、認識結果にあたる語句データを端末装置100Cと端末装置100Dへ送信する。なお、情報管理サーバ200及び音声認識サーバ201での処理の詳細については後述する。また、当該COMMワードは、COMMワード制御部195により表示部150が制御されることにより、端末装置100の表示部150の画面上、たとえば図4の俯瞰撮像画像61上やマップ画像69上で、前述の対応するCOMMリンク86の近傍位置に重畳表示される(図15参照)。なお、「COMMワード」オブジェクトは、前述の「COMMリンク」オブジェクト同様、3次元仮想空間90内において位置や形状(体積)を有するデータであってもよく、そのデータは情報管理サーバ200によって管理されていてもよい。さらに、その際、「COMMワード」オブジェクトは、3次元仮想空間90内において、対応する「COMMリンク」オブジェクトに空間的に近接するまたは近傍の位置に設定されてもよく、当該設定は情報管理サーバ200によって行われても構わない。
Here, in the present specification, the “COMM word” object may be a display element of a user interface presented on the screen of the
以下に、COMMワード87の一例を、図15を参照して説明する。図15は、端末装置100の表示画面50に表示されるCOMMリンク86およびCOMMワード87の一例を説明するための説明図である。図15においては、俯瞰モードまたは近接モードで表示される表示画面50が示されている。表示画面50は、撮像画像51A、51B、51Z、マップ画像69A、69B、69Z、人物C、D、E、Fの人物画像77C、77D、77E、77F、人物C、D、E、Fのプレゼンスアイコン79C、79D、79E、79F、射影して重畳表示されたCOMMリンク86G2、86G3、86H2、86H3、及びCOMMワード87I、87J、87K、87Lを含む。撮像画像51A、51B、51Zは、分散環境における拠点A、B、Z(たとえば、東京、大阪、沖縄)をそれぞれ俯瞰的に撮影した画像であり、マップ画像69A、69B、69Zは撮像画像51A、51B、51C内の各種オブジェクトの位置関係を2次元的に表現したたとえば平面図である。なお、撮像画像51とマップ画像69とは、表示画面50上にどちらか一方だけが表示されていてもよい。
An example of the
例えば、拠点Aの人物Cと拠点Aの人物Dが自席にある端末装置100Cと100Dとで二者通話を始めると、撮像画像51A上の人物画像77Cと77Dとの間に、COMMリンク86G3、マップ画像69A上のプレゼンスアイコン79Cと79D上に、COMMリンク86G2、さらにその近傍位置にCOMMワード87I、87J、87Kが表示される。なお、撮像画像51A上の人物画像77Cと77Dとは、それぞれ人物C及び人物Dに対応し、マップ画像69A上のプレゼンスアイコン79Cと79Dとは、それぞれ人物C及び人物Dに対応する。また、拠点Aの人物Eと拠点Bの人物Fが自席にある端末装置100Eと100Fとで二者通話を始めると、撮像画像51A上の人物画像77Eと撮像画像51B上の人物画像77FにまたがってCOMMリンク86H3、マップ画像69A上のプレゼンスアイコン79Eとマップ画像69B上のプレゼンスアイコン79FにまたがってCOMMリンク86H2が表示される。なお、撮像画像51A上の人物画像77Eと77Fとは、それぞれ人物E及び人物Fに対応し、マップ画像69A上のプレゼンスアイコン79Eと79Fとは、それぞれ人物E及び人物Fに対応する。
For example, when the person C at the location A and the person D at the location A start a two-party call between the
そして、端末装置100Uのユーザが表示画面50上のCOMMリンク86G3またはCOMMリンク86G2をタッチ入力して指定すると、当該ユーザは人物Cと人物Dの二者会話に参加することができる。また、端末装置100Uのユーザが表示画面50上のCOMMリンク86H3またはCOMMリンク86H2をタッチ入力して指定すると、当該ユーザは人物Eと人物Fの二者会話に参加することができる。
Then, when the user of the
図15では、COMMリンク86G3またはCOMMリンク86G2の近傍位置に、COMMワード87I、87J、87Kが表示されている。ここで、COMMワード87は、先に説明したように、端末装置100を介した通話内容の要部が音声認識処理で抽出され、可視化処理されて表示されるオブジェクトである。例えば、図15においては、COMMワード87は、後述する統計的重み付け処理による重みが反映されるように表示される(当該重み付け処理は、後述する情報管理サーバ200で行われ、当該重み付け処理の結果は端末装置100等へ配信される。詳細については後述する)。例えば、図15においては、COMMワード87Iの語句「会議」は、COMMワード87Jの語句「中止」やCOMMワード87Kの語句の「開催」等より大きなサイズで表示されている。この図15のCOMMワードの表示は、統計的重み付け処理による重みを反映した表示であり、例えば重みの基になる指標が話者の発言回数である場合には、「会議」という語句はその他の語句「中止」等よりも多くの回数で話者によって発言され、通話内に多く出現していることを示す。このように、COMMワード87が、統計的重み付け処理による重みが反映されるように表示されことにより、表示画面50を見ているユーザにも直感的に会話の要部を理解することができる。
In FIG. 15,
さらに、COMMワード87の位置について説明すると、COMMワード87Iの語句「会議」は対応するCOMMリンク86Gの中央付近に位置している。それに対し、COMMワード87Jの語句「中止」等は、COMMリンク86Gに紐づけられた人物Cの人物画像77Cの付近の位置に、COMMワード87Kの語句「開催」等は、COMMリンク86Gに紐づけられた人物Dの人物画像77Dの付近の位置に表示されている。これは、COMMリンク86Gに対応する二者通話を行っている人物Cと人物Dのどちらがどのような語句を多く発言しているかという会話の発言状況を、位置(COMMリンク86の端のオブジェクト91からの距離と同義)というパラメータに変換して可視化処理した結果である。例えば、COMMワード87Iの語句「会議」は、COMMリンク86の中央付近に位置しているので、人物Cも人物Dも同じくらいの回数で発言していることを表す。一方で、COMMワード87Jの語句「中止」は、人物Cの人物画像77Cの付近に位置していることから、人物Cが多く発言しており、COMMワード87Kの語句「開催」は、人物Dの人物画像77Dの付近に位置していることから、人物Dが多く発言している語句であることを表す。なお、上記の各COMMワード87とオブジェクト91(すなわち対応する語句の発言者のオブジェクト)との位置関係は、表示部150での表示上だけでなく、3次元仮想空間90においても同様の位置または同様の距離の関係であってもよい(例えば、COMMワード87Jは、3次元仮想空間90においても、人物Cの人物画像77Cに対応するオブジェクト91Cの近傍に位置していてもよい)。
Further, explaining the position of the
このように、本実施形態においては、COMMワード制御部195が行う、上記の統計的重み付けや発言状況を反映した可視化処理を行い、通話内容の要部をCOMMワード87として表示する。従って、本実施形態によれば、遠隔地にいて会話の音声が聞こえないようなユーザでも、COMMワード87が表示された画面を見ることより、会話内容の大まかな把握を行うことが可能となる。例えば、図15の例においては、遠隔地のユーザは、COMMワード87が表示された画面を見ることにより、人物Cと人物Dは明日の会議の開催可否をテーマにした会話を行っており、人物Cは会議の中止や延期を主張している一方、人物Dは同会議を開催すべきだと主張している、というような、会話内容を把握することができる。そして、当該ユーザが、会話内容の大まかな把握を行った後に、当該会話内容に関心が生じたら、前述のCOMMリンク86に対する簡便な指定操作によって、スムーズに当該会話に参加することができる。すなわち、同一環境下にいる場合と同じように、ユーザは、二者会話にスムーズに参加することができる。
As described above, in the present embodiment, the COMM
なお、COMMワード制御部195は、COMMワード87の表示の際に、上記通話に含まれるすべての語句データを表示しなくてもよい。例えば、COMMワード制御部195は、上記重み付けにおける重みの値と所定の閾値(所定の値)とを比較し、当該重みの値が所定の閾値以上であった語句のみ、端末装置100の表示画面に表示されるように制御しても構わない。このようにすることで、COMMワード87として、会話における重要度が高い語句のみが「精選」されて表示されることとなる。また、この時、重み付き語句データのCOMMワード87に対応するCOMMリンク86についても、表示の制御がなされてもよい。さらに、COMMワード制御部195は、重みの値に基づいて、COMMワード87の表示を制御してもよい。具体的には、COMMワード制御部195は、重みの値に基づいて、COMMワード87の表示の大きさ、色、当該表示が重畳される画面とのコントラスト、表示する位置等を制御してもよい。
Note that the COMM
図16は、端末装置100の表示画面55に表示されるCOMMリンク86およびCOMMワード87の別の一例を説明するための説明図である。図16においては、俯瞰モードまたは近接モードで表示される表示画面55が示されている。まず、拠点Aの人物Cと拠点Bの人物Fが自席にある端末装置100Cと100Fとで二者通話を始めると、人物Cと人物Fの人物画像間にCOMMリンク86およびCOMMワード87が表示される。さらに、拠点Aの人物Dが上記COMMリンク86を指定操作し、COMMリンク86に対応する会話に参加し、三者通話に移行すると、人物Cと人物D、および、人物Fと人物Dの人物画像間にCOMMリンク86およびCOMMワード87が表示される。その結果、例えば、人物C、人物D及び人物Fをつなぐ三角形状のCOMMリンク86M3及びCOMMリンク86M2が表示される。この場合、さらに別の人物Eが上記三者通話に参入して四者通話に移行するためには、例えば、人物Eが、三角形状のCOMMリンク86M2のいずれか一辺に該当する位置、または、当該三角形の内部領域の一部に該当する位置を指定する操作を行えばよい。
FIG. 16 is an explanatory diagram for explaining another example of the
<1.2.3 ソフトウェア構成>
次に、本実施形態に係る端末装置100のソフトウェア構成の一例を説明する。図17は、本実施形態に係る端末装置100のソフトウェア構成の一例を示すブロック図である。図17を参照すると、端末装置100は、OS(Operating System)840及び複数のアプリケーションソフトウェアを有する。そして、端末装置100は、アプリケーションソフトウェアとして、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855を含む。
<1.2.3 Software configuration>
Next, an example of the software configuration of the
(OS840)
OS840は、端末装置100を動作させるための基本的な機能を提供するソフトウェアである。OS840は、各アプリケーションソフトウェアを実行する。
(OS840)
The
(ソフトフォン851)
ソフトフォン851は、端末装置100を用いて電話を行うためのアプリケーションソフトウェアである。電話部189は、例えば、ソフトフォン851により実現され得る。
(Softphone 851)
The
(超臨場感クライアント853)
超臨場感クライアント853は、実空間の情報を端末装置100に提供するためのアプリケーションソフトウェアである。超臨場感クライアント853は、実空間(例えば、センタオフィス10)にいる人物の状態を示す状態情報を取得し、OSを介してソフトフォン851に提供してもよい。そして、ソフトフォン851は、当該状態情報に基づいて、電話発信を制御してもよい。なお、実空間情報提供部181は、例えば、超臨場感クライアント853により実現され得る。
(Ultra-realistic client 853)
The
(電話発信制御機能855)
また、電話発信制御機能855は、表示画面内の撮像画像に写っている人物の通信装置の通信用IDを取得するアプリケーションソフトウェアである。電話発信制御機能855は、通信用IDを取得すると、OS840を介してソフトフォン851に提供する。そして、ソフトフォン851は、当該通信用IDを用いて、電話発信を行う。なお、位置取得部183、オブジェクト選択部185及びID取得部187は、電話発信制御機能855により実現され得る。
(Telephone call control function 855)
The telephone
<1.3 情報管理サーバの構成>
続いて、図18及び図19を参照して、本実施形態に係る情報管理サーバ200の構成の一例を説明する。情報管理サーバ200は、先に説明したように、本実施形態に係る情報処理システムにおいて用いられる様々な情報を管理する。
<1.3 Information management server configuration>
Subsequently, an example of the configuration of the
<1.3.1 ハードウェア構成>
まず、図18を参照して、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を説明する。図18は、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を示すブロック図である。図18を参照すると、情報管理サーバ200は、CPU901、ROM903、RAM905、バス907、記憶装置909及び通信インターフェース911を有する。
<1.3.1 Hardware configuration>
First, an example of the hardware configuration of the
(CPU901、ROM903、RAM905)
CPU901は、情報管理サーバ200における様々な処理を実行する。また、ROM903は、情報管理サーバ200における処理をCPU901に実行させるためのプログラム及びデータを記憶する。さらに、RAM905は、CPU901の処理の実行時に、プログラム及びデータを一時的に記憶する。
(CPU901, ROM903, RAM905)
The
(バス907)
バス907は、CPU901、ROM903及びRAMを相互に接続する。バス907には、さらに、記憶装置909及び通信インターフェース911が接続される。バス907は、例えば、複数の種類のバスを含む。一例として、バス907は、CPU901、ROM903及びRAM905を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含んでもよい。
(Bus 907)
The
(記憶装置909)
記憶装置909は、情報管理サーバ200内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置909は、例えば、ハードディスク等の磁気記憶装置であってもよく、又は、EEPROM、フラッシュメモリ、MRAM、FeRAM及びPRAM等の不揮発性メモリであってもよい。
(Memory device 909)
The
(通信インターフェース911)
通信インターフェース911は、情報管理サーバ200が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース911は、無線通信用のインターフェースであってもよく、この場合には、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース911は、有線通信用のインターフェースであってもよく、この場合には、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
(Communication interface 911)
The
<1.3.2 機能構成>
次に、本実施形態に係る情報管理サーバ200の機能構成の一例を説明する。図19は、本実施形態に係る情報管理サーバ200の機能構成の一例を示すブロック図である。図19を参照すると、情報管理サーバ200は、通信部210、記憶部220及び制御部230を有する。
<1.3.2 Functional configuration>
Next, an example of a functional configuration of the
(通信部210)
通信部210は、他の装置と通信する。例えば、通信部210は、LAN19に直接的に接続され、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部210は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17及び音声認識サーバ201と通信する。また、通信部210は、外部ネットワーク30及びLAN23を介して、サテライトオフィス20内の各装置と通信する。具体的には、例えば、通信部210は、端末装置100及びディスプレイ21と通信する。なお、通信部210は、例えば、通信インターフェース911により実現され得る。
(Communication unit 210)
The
(記憶部220)
記憶部220は、情報管理サーバ200の動作のためのプログラム及びデータを記憶する。とりわけ本実施形態では、記憶部220は、情報処理システムにおいて用いられる様々な情報を記憶する。
(Storage unit 220)
The
第1の例として、記憶部220は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを記憶する。当該パラメータの具体的な内容は、上述したとおりである。第2の例として、記憶部220は、実空間に対応する3次元仮想空間90のデータを記憶する。当該3次元仮想空間90は、例えば、センタオフィス10を模した3次元仮想空間である。当該3次元仮想空間90の具体的な内容は、上述したとおりである。第3の例として、記憶部220は、人物関連情報を記憶する。当該人物関連情報は、例えば、センタオフィス10にいる人物の人物関連情報である。なお、当該人物関連情報の具体的な内容は、上述したとおりである。第4の例として、記憶部220は、3次元仮想空間に配置されるオブジェクト91のオブジェクトIDと通信用IDとを、互いに対応付けて記憶する。なお、当該オブジェクトID及び通信用IDの具体的な内容は、上述したとおりである。
As a first example, the
(制御部230)
制御部230は、情報管理サーバ200の様々な機能を提供する。制御部230は、COMMリンク配信部(会話イベントオブジェクト配信部)231、抽出語句データ管理部232、重み付け演算部(重み付け処理部)233、COMMワード配信部(発言語句オブジェクト配信部)234、及び発言状況演算部235を含む。制御部230は、例えば、要求に応じて、情報処理システムにおいて用いられる様々な情報を提供する。具体的には、制御部230は、端末装置100による要求に応じて、3次元仮想空間90のデータ、人物関連情報、オブジェクトIDに対応する通信用ID、並びに、カメラ11、マイクロフォン13及びセンサ15に関するパラメータ等を提供する。また、例えば、制御部230は、本実施形態に係る情報処理システムにおいて用いられる様々な情報を適宜更新してもよい。制御部230は、自動で、又は手動による指示に応じて、当該情報を更新する。
(Control unit 230)
The
(COMMリンク配信部231)
COMMリンク配信部231は、COMMリンク86を生成するための情報を端末装置100等からから受信し、当該COMMリンク86の位置とサイズに関する演算、COMMリンク86の配信、COMMリンク86へのユーザ入力データの取得、を行う。詳細には、COMMリンク配信部231は、端末装置100からCOMMリンク86の基礎となる会話行動(通話動作)を通信部210を介して受信する。そして、COMMリンク配信部231は、当該端末装置100からの情報に基づいて、先に説明した3次元仮想空間90を用いて当該端末装置100を利用する話者に係るオブジェクト91を取得し、これらオブジェクト91をつなぐCOMMリンク86に係るデータを生成し、配信する。詳細には、COMMリンク配信部231は、先に説明したように、予め記憶部220に記憶された実空間に対応する3次元仮想空間90上における複数の人物のオブジェクト91を参照し、当該端末装置100から得られた会話行動の情報に基づき、当該会話行動に係る話者のオブジェクト91を選択する。そして、選択したオブジェクト91を結びつけるCOMMリンクを3次元仮想空間90上に生成する。
(COMM link distribution unit 231)
The COMM
さらに、COMMリンク配信部231は、生成したCOMMリンク86に係るデータを記憶部220に記憶させる。この時、COMMリンク配信部231は、COMMリンク86に識別用のIDを付与して記憶部220に記憶し情報管理を行ってもよい。さらに、COMMリンク配信部231は、当該COMMリンク86に付与したIDと、COMMリンク86に対応する2以上の話者のオブジェクトID(通信用ID(通信用識別情報))とを対応づけて記憶部220に記憶することにより、CONNリンク86に2以上の話者のオブジェクトIDを紐づけて管理してもよい。なお、COMMリンク配信部231は、上記会話行動(通話動作)の話者である人物の位置情報については、3次元仮想空間90上のオブジェクト91のデータを用いず、情報管理サーバ200が複数のマイクロフォン13の集音データから音源推定処理を行うことにより、位置を推定して求めてもよい。
Further, the COMM
また、COMMリンク配信部は、生成したCOMMリンク86に対するユーザからの入力操作を通信部210を介して受信した場合には、COMMリンク86に、当該ユーザのオブジェクトIDを関連付ける。このようにすることで、COMMリンク86に対応する2以上の話者のオブジェクトIDが、当該ユーザのオブジェクトIDと関連付けられる。そして、本実施形態においては、1つのCOMMリンク86に関連付けられたオブジェクトIDを参照して制御を行うことにより、新たに当該ユーザが加わった通話を開始することができる。
Further, when the COMM link delivery unit receives an input operation from the user for the generated
(抽出語句データ管理部232)
抽出語句データ管理部232は、端末装置100の通信部110から受信した音声データを取得し、音声認識サーバ201へ送信する。そして、抽出語句データ管理部232は、音声認識サーバ201から認識結果の語句データを受信し、当該語句の発言者の識別情報と対応させて管理する。なお、例えば、抽出語句データ管理部232は、語句に関するデータや当該語句の発言者の識別情報は記憶部220に記憶させてもよい。
(Extracted word data management unit 232)
The extracted word/phrase
(重み付け演算部233)
重み付け演算部233は、抽出語句データ管理部232が管理する語句データを分析し、統計的な重み付け処理を行う。当該重み付けのための指標としては、たとえば、語句の会話における出現頻度(回数)(例えば、出現頻度が高いほど重みを大きくする)、語句の抽象度(例えば、具体性が高いほど重みを大きくする。具体的には、「料理」よりも、「フランス料理」という語句の方が具体性が高いこととなり、「フランス料理」よりも「ブッフブルキニョン(ブルゴーニュ風牛肉の赤ワイン煮)」の方がより具体性が高いこととなる。なお、抽象度を示す値は、例えば、抽出された語句とともに、音声認識サーバ201から供給される。)、語句の品詞カテゴリ(例えば、動詞よりも名詞の重みを大きくする)等の指標を用いる。また、端末装置100が、集音部140と電話部189とを用いて、音声データの取得時に当該音声データとともに通話音声(語句の発話)の音圧のデータも取得して情報管理サーバ200へ送信し、重み付け演算部233は、当該音圧データを重み付けのための指標として用いてもよい(例えば、大きな音圧レベルで発せられた語句ほど重みを大きくする)。
(Weighting calculation unit 233)
The
(COMMワード配信部234)
COMMワード配信部234は、抽出語句データ管理部232、重み付け演算部233、後述する発言状況演算部235から取得した、語句を含む語句データを用いて、当該語句を含むCOMMワード87を生成し、COMMワード87に係るデータを配信する。この際、COMMワード配信部234は、生成したCOMMワード87には、当該COMMワードに含まれる語句の発言者の識別情報が紐づける。また、COMMワード配信部234は、生成したCOMMワード87を記憶部220に記憶させてもよい。さらに、COMMワード配信部234は、重み付け演算部233による重みづけ処理の結果に応じて、配信してもよい。より具体的には、COMMワード配信部234は、重みづけ処理の結果(重みの値)と所定の閾値(所定の値)とを比較し、比較結果に基づいて、生成したCOMMワード87を配信してもよい。この場合、COMMワード配信部234は、COMMワード87に紐づけて重みづけ処理の結果のデータを配信してもよい。さらに、COMMワード配信部234は、後述する発言状況演算部235に算出されたCOMMワード87の位置情報をともに配信してもよい。
(COMM word delivery unit 234)
The COMM
(発言状況演算部235)
発言状況演算部235は、抽出語句データ管理部232が管理する語句データと、当該語句データに対応する識別情報データとを分析し、当該語句データが二者通話内の仮想的な場において、どのような位置(各発話者からの仮想的な距離)に存在するかを算出する。発言状況演算部235は、COMMリンク86の3次元仮想空間90内における位置と、COMMリンク86に対応するCOMMワード87の当該COMMリンク86に対する位置とを算出する。例えば、図15の例で説明すると、COMMワード87Iの語句「会議」が、人物Cも人物Dも同じくらいの回数(例えば、人物Cが10回、人物Dも10回)で発言されている場合には、COMMワード87I「会議」の位置は、例えば、COMMリンク86G上の「中点」となる。一方で、COMMワード87Jの語句「中止」は、人物Cが多く発言している(例えば、人物Cが5回、人物Dは0回)ことから、COMMワード87J「中止」の位置は、人物Cの近傍となる。さらに、COMMワード87Kの語句「開催」は、人物Dが多く発言している(たとえば、人物Cが1回、人物Dは6回)ことから、COMMワード87K「開催」の位置は、人物Dの近傍となる。そして、発言状況演算部は、算出した位置をCOMMワードに紐づけて、COMMワード配信部234に供給する。COMMワード配信部234は、当該位置情報をCOMMワード87とともに、端末装置100へ配信することから、端末装置100においては、当該位置情報に基づいて、COMMワード87が表示されることとなる。
(Speaking status calculation unit 235)
The utterance
すなわち、制御部230は、抽出語句データ管理部232、重み付け演算部233、発言状況演算部235等による情報処理によって、通話中状態の端末装置100から受信した音声データを、位置情報や重み付けや発言状況を反映した重み付き語句データに変換し、関連する拠点の端末装置100へと送信する。なお、制御部230(COMMワード配信部234)は、前記統計的重み付けにおける重みの値が所定の閾値以上であった重み付き語句データのみ、端末装置100へ配信するようにしてもよい。
That is, the
<1.4 音声認識サーバの構成>
続いて、図20及び図21を参照して、本実施形態に係る音声認識サーバ201の構成の一例を説明する。音声認識サーバ201は、先に説明したように、大規模な語句リストのデータを内蔵し、情報管理サーバ200を介して、端末装置100やマイクロフォン13で取得された音声データを受信し、音声データに対して音声認識処理を行って、認識結果のデータを情報管理サーバ200へと送信する。
<1.4 Structure of voice recognition server>
Subsequently, an example of the configuration of the
<1.4.1 ハードウェア構成>
図20を参照して、本実施形態に係る音声認識サーバ201のハードウェア構成の一例を説明する。図20は、本実施形態に係る音声認識サーバ201のハードウェア構成の一例を示すブロック図である。図20を参照すると、音声認識サーバ201は、CPU701、ROM703、RAM705、バス707、記憶装置709及び通信インターフェース711を備える。
<1.4.1 Hardware configuration>
An example of the hardware configuration of the
(CPU701、ROM703、RAM705)
CPU701は、音声認識サーバ201における様々な処理を実行する。また、ROM703は、音声認識サーバ201における処理をCPU701に実行させるためのプログラム及びデータを記憶する。また、RAM705は、CPU701の処理の実行時に、プログラム及びデータを一時的に記憶する。
(
The
(バス707)
バス707は、CPU701、ROM703及びRAM705を相互に接続する。バス707には、さらに、記憶装置709及び通信インターフェース711が接続される。バス707は、例えば、複数の種類のバスを含む。
(Bus 707)
The
(記憶装置709)
記憶装置709は、音声認識サーバ201内で一時的又は恒久的に保存すべきデータ、例えば、語句データを記憶する。記憶装置709は、例えば、ハードディスク等の磁気記憶装置であってもよく、又は、EEPROM、フラッシュメモリ、MRAM、FeRAM及びPRAM等の不揮発性メモリであってもよい。
(Memory device 709)
The
(通信インターフェース711)
通信インターフェース711は、音声認識サーバ201が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース711は、無線通信用のインターフェースであってもよく、もしくは、有線通信用のインターフェースであってもよい。
(Communication interface 711)
The
<1.4.2機能構成>
次に、本実施形態に係る音声認識サーバ201の機能構成の一例を説明する。図21は、本実施形態に係る音声認識サーバ201の機能構成の一例を示すブロック図である。図21を参照すると、音声認識サーバ201は、通信部510、記憶部520及び制御部530を備える。
<1.4.2 Functional configuration>
Next, an example of the functional configuration of the
(通信部510)
通信部510は、他の装置と通信する。例えば、通信部510は、LAN19に直接的に接続され、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部510は、マイクロフォン13及び情報管理サーバ200と通信する。また、通信部510は、外部ネットワーク30及びLAN23を介して、サテライトオフィス20内の各装置と通信する。
(Communication unit 510)
The
(記憶部520)
記憶部520は、音声認識サーバ201の動作のためのプログラム及びデータを記憶する。詳細には、本実施形態では、記憶部520は、大規模な語句リストのデータを記憶する。
(Storage unit 520)
The
(制御部530)
制御部530は、音声認識サーバ201の様々な機能を提供する。制御部530は、語句抽出部531及び語句データ生成部533を含む。
(Control unit 530)
The
(語句抽出部531)
語句抽出部531は、記憶部520に記憶された語句リストを参照して、情報管理サーバ200を介して、端末装置100やマイクロフォン13から取得された音声データから語句を抽出する。語句抽出部531は、音声データを受け取ったら逐次、当該音声データから語句を抽出してもよく、もしくは、受け取った音声データの量が所定の量になった場合に(例えば、5分間分の会話に係る音声データ)、受け取った音声データから語句を抽出してもよい。また、語句抽出部531は、記憶部520にあらかじめ記憶された、語句を発話した話者に対応付けられた語句リストを用いて、語句の抽出を行ってもよい。このようにすることで、当該話者の発言する語句の傾向についての情報を蓄積し、語句抽出部531は、蓄積した情報を用いて、当該話者の発言の頻度が高い語句を優先的に抽出することができる。また、特定の語句は抽出されることがないように(業務に関係のない語句(例えば「ゲーム」等の語句))が抽出されることがないように、語句抽出部531による語句の抽出の際には、フィルタリングを行ってもよい。
(Word extraction unit 531)
The word/
(語句データ生成部533)
語句データ生成部533は、語句抽出部531により抽出された語句の抽出(認識)結果のデータを生成し、通信部510を介して、情報管理サーバ200へ送信する。
(Word data generation unit 533)
The word/phrase
<1.5 処理の流れ>
続いて、図22を参照して、本実施形態に係る情報処理の例を説明する。図22は、本実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。図22には、ステップS401からステップS413までが含まれる。
<1.5 Process flow>
Next, an example of information processing according to this embodiment will be described with reference to FIG. FIG. 22 is a flowchart showing an example of a schematic flow of information processing according to this embodiment. 22 includes steps S401 to S413.
(ステップS401)
位置取得部183は、実空間の撮像画像の表示画面において当該撮像画像内の位置がユーザにより指定されたかを判定する。より具体的には、例えば、位置取得部183は、近接撮像画像71内の位置をユーザにより指定されたかを判定する。上記位置が指定されていれば、処理はステップS403へ進む。一方、上記位置が指定されていない場合には、ステップS401を繰り返す。
(Step S401)
The
(ステップS403)
位置取得部183は、ユーザにより指定される上記撮像画像内の位置を取得する。
(Step S403)
The
(ステップS405)
オブジェクト選択部185は、実空間に対応する3次元仮想空間90のデータを記憶部170から取得する。
(Step S405)
The
(ステップS407)
取得された上記撮像画像内の上記位置に基づいて、上記3次元仮想空間90に配置されたオブジェクト91を選択する。
(Step S407)
The
(ステップS409)
ID取得部187は、選択された上記オブジェクト91に対応する通信用IDを着信側の通信用IDとして取得する。
(Step S409)
The
(ステップS411)
ID取得部187は、発信側の通信用ID(即ち、端末装置100の通信用ID)を取得する。
(Step S411)
The
(ステップS413)
電話部189は、着信側の通信用IDを用いて電話発信を行う。その後、電話部189は、電話のための様々な処理を実行し、処理は終了する。
(Step S413)
The
以上のように、本実施形態に係る情報処理が実行される。さらに、当該情報処理の開始前に行われる起動処理の一例を、図23を参照して説明する。図23は、本実施形態に係る起動処理の概略的な流れの一例を示すフローチャートである。図23は、ステップS501からステップS507までを含む。 As described above, the information processing according to this embodiment is executed. Furthermore, an example of the activation process performed before the start of the information processing will be described with reference to FIG. FIG. 23 is a flowchart showing an example of a schematic flow of a startup process according to this embodiment. FIG. 23 includes steps S501 to S507.
(ステップS501)
ソフトフォン851の起動処理が実行される。これにより、ソフトフォン851が起動する。
(Step S501)
The activation process of the
(ステップS503)
ソフトフォン851に関する登録処理が実行される。例えば、ソフトフォン851の登録処理の1つとして、PBX40での登録(例えば、SIP REGISTRATION)が行われる。
(Step S503)
The registration process for the
(ステップS505)
超臨場感クライアント853の起動処理が実行される。例えば、超臨場感クライアント853において利用されるカメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200等が特定される。
(Step S505)
The activation process of the
(ステップS507)
超臨場感クライアント853の俯瞰モード処理が実行される。そして、一連の起動処理は終了する。
(Step S507)
The bird's-eye view mode process of the
次に、本実施形態に係る通信制御処理の一例を、図24を参照して説明する。図24は、本実施形態に係る通信制御処理の概略的な流れの一例を示すシーケンス図である。図24の通信制御処理においては、情報管理サーバ200が、先に二者通話を開始した人物Cの端末装置100Cと人物Dの端末装置100D間の会話に関する情報をCOMMリンク86及びCOMMワード87として第三者となるユーザの端末装置100Uに配信するまでの処理を含む。さらに、図24の通信制御処理においては、当該ユーザが端末装置100Uから当該COMMリンク86を指定入力することで、上記二者通話に参加するまでの処理を含む。詳細には、図24には、ステップS601からステップS613までが含まれる。
Next, an example of the communication control process according to the present embodiment will be described with reference to FIG. FIG. 24 is a sequence diagram showing an example of a schematic flow of the communication control process according to the present embodiment. In the communication control process of FIG. 24, the
(ステップS601)
情報管理サーバ200を介して、端末装置100Cと端末装置100D間での二者通話が開始される。この二者通話の開始には、前述のステップS401からステップS413で説明した一連の情報処理が用いられていてもよい。
(Step S601)
A two-party call is started between the
(ステップS603)
情報管理サーバ200は、端末装置100Cと端末装置100D間の二者通話における音声データから音声認識サーバ201が抽出した語句データを取得する。さらに、情報管理サーバ200は、取得した語句データを用いて、位置情報や統計的重み付けや発言状況を反映した重み付き語句データを生成する。
(Step S603)
The
(ステップS605)
情報管理サーバ200は、端末装置100Cと端末装置100D間の二者通話に関する重み付き語句データを、端末装置100Uへ送信する。
(Step S605)
The
(ステップS607)
端末装置100Uは、重み付き語句データを受信し、表示部150の画面上にCOMMリンク86とCOMMワード87を表示する。
(Step S607)
The
(ステップS609)
端末装置100Uは、表示された端末装置100Cと端末装置100Dに対応するオブジェクト91をつなぐCOMMリンク86を指定するユーザ入力を取得する。
(Step S609)
The
(ステップS611)
端末装置100Uは、上記COMMリンク86を指定するユーザ入力に関するデータ(例えば、前述の会話オブジェクトに対応する2以上の話者のオブジェクトID)を情報管理サーバ200へ送信する。
(Step S611)
The
(ステップS613)
情報管理サーバ200は、上記COMMリンク86を指定するユーザ入力に関するデータを受信し、上記COMMリンク86に対応する端末装置100Cと端末装置100D間の二者通話のセッションに端末装置100Uとの通話を追加する。そして、端末装置100C、端末装置100D、端末装置100U間の三者通話のセッションが開始される。
(Step S613)
The
以上説明したように、本実施形態においては、通話の話者を結ぶCOMMリンク86が表示されることから、ユーザは、COMMリンク86を視認することで、分散環境にいる複数の遠隔地の誰と誰との間に会話が発生したかを直感的に把握することができる。さらに、本実施形態においては、通話内容の要部をCOMMワード87として表示することから、遠隔地にいて音声が聞こえないようなユーザでも、COMMワード87が表示された画面を見ることより、会話内容の大まかな把握を行うことが可能となる。そして、当該ユーザは、会話内容の大まかな把握を行った後に、当該会話内容に関心が生じたら、前述のCOMMリンク86に対する簡便な指定操作によって、スムーズに当該会話に参加することができる。すなわち、本実施形態によれば、ユーザが、分散環境において、遠隔地での会話の発生や当該会話の大まかな内容を把握することができ、さらに、誰が通話状態にあるのかを直感的に認識することが可能である。
As described above, in the present embodiment, since the
<2.第2の実施形態>
次に、以下に説明する、本発明の第2の実施形態は、例えば分散オフィスのような分散環境と同室環境とが混在する環境において、ユーザが、既に通話を行っている複数の話者のいずれかの話者と同室環境内の位置に存在することを前提とした処理である。
<2. Second Embodiment>
Next, in the second embodiment of the present invention described below, in a mixed environment of a distributed environment and a common room environment, such as a distributed office, a user can talk to a plurality of speakers who are already talking. This processing is premised on that the speaker exists in the same room environment as any speaker.
詳細には、上述の第1の実施形態においては、分散環境では気づきにくくなってしまう会話というコミュニケーションイベントについて、それをCOMMリンク86およびCOMMワード87として可視化処理することにより、ユーザが遠隔地の会話にも気づけるようにしていた。しかしながら、例えば、分散オフィスのような分散環境と同室環境とが混在する環境においては、ユーザが、既に通話を行っている複数の話者の全ての話者と異なる環境内に位置するものとは限られず、当該通話の話者の1人と同室環境に位置する場合がある。この場合、当該ユーザは、同室環境に位置することから、周囲の会話として、当該通話の内容を自然に聴感できているため、当該会話をCOMMワード87として、ユーザの端末装置100U上にも提示すると、視聴した情報と表示された情報とによって、ユーザに対して同一の情報が二重に提供されることとなる。そして、このような情報の二重提供は、かえってユーザの思考の混乱を招くこととなる。そこで、本実施形態においては、同室環境の人物の発話に関するCOMMワード87の生成や配信処理を回避することにより、同一情報の二重提供を防ぎ、ユーザの指向を混乱させることを避けるような処理を行う。さらに、本実施形態においては、COMMワード87の生成や配信処理を回避することにより、本実施形態のシステムにおける処理の一部を軽減化し、処理の迅速化を図ることができる。
Specifically, in the first embodiment described above, a communication event, which is a conversation that is difficult to notice in a distributed environment, is visualized as a
<2.1 情報管理サーバの構成>
<2.1.1 機能構成>
図25を参照して、本実施形態に係る情報管理サーバ200Aの機能構成の一例を説明する。図25は、本実施形態に係る情報管理サーバ200Aの機能構成の一例を示すブロック図である。当該情報管理サーバ200Aは、上述した第1の実施形態の情報管理サーバ200と同様に、通信部210、記憶部220、及び制御部230を有する。さらに、制御部230は、第1の実施形態と同様に、COMMリンク配信部231、抽出語句データ管理部232、重み付け演算部233、COMMワード配信部234、及び発言状況演算部235を含む。加えて、制御部230は、位置連動配信制御部236をさらに含む。従って、ここでは、第1の実施形態と同様の機能部の説明は省略し、位置連動配信制御部236についてのみ説明する。
<2.1 Information management server configuration>
<2.1.1 Functional configuration>
An example of the functional configuration of the
(位置連動配信制御部236)
位置連動配信制御部236は、既に行われている通話に対応する人物(話者)の位置と、当該通話に参加していない第三者ユーザの位置と、を比較し、当該第三者ユーザの端末装置100UへCOMMワード87を配信するか否かを制御する。より具体的には、位置連動配信制御部236は、上記通話の音声に係る人物(話者)の位置情報と、上記通話に関与していない端末装置100Uの位置情報とを比較し、両者の位置情報が所定の距離内、もしくは、同拠点の同室環境に共に存在する場合には、COMMワード87の生成又は配信に係る制御処理を中止する。
(Position linked delivery control unit 236)
The position-linked
<2.2 処理の流れ>
続いて、図26を参照して、本実施形態に係る情報処理の例を説明する。図26は、本実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。図26には、ステップS701からステップS707までが含まれており、ステップS701は、第1の実施形態の図24のステップS601の後に、開始される。
<2.2 Process Flow>
Subsequently, an example of information processing according to the present embodiment will be described with reference to FIG. FIG. 26 is a flowchart showing an example of a schematic flow of information processing according to the present embodiment. FIG. 26 includes steps S701 to S707, and step S701 is started after step S601 of FIG. 24 of the first embodiment.
(ステップS701)
情報管理サーバ200は、端末装置100Cと端末装置100D間での二者通話が開始されたことを検知した場合には、次のステップS703へ進む。なお、情報管理サーバ200は、二者通話が開始されたことを検知していない場合には、ステップS701を繰り返す。
(Step S701)
When the
(ステップS703)
位置連動配信制御部236は、上記通話から抽出された語句データに係る語句を発話した人物の位置と、上記通話に関与していない端末装置100Uの位置(上記通話に参加していないユーザの位置)との間の距離を算出する。
(Step S703)
The position-linked
(ステップS705)
位置連動配信制御部236は、ステップS703へ算出した距離を、あらかじめ定められた所定の距離と比較する。算出した距離が所定の距離よりも短い場合には、処理を終了する。一方、算出した距離が所定の距離よりも長い場合には、ステップS707へ進む。なお、所定の距離とは、例えば、話者とユーザとが同室に存在する場合に想定される両者の間の距離のことであり、もしくは、一方の話者が実空間上で発話した場合に、ユーザが当該発話の聞くことが可能な実空間上の位置と、上記話者との間の距離のことである。
(Step S705)
The position-interlocked
(ステップS707)
図24のステップS603へ進む。すなわち、会話についての語句を抽出し、抽出した語句に対して重みづけを行う。
(Step S707)
It progresses to step S603 of FIG. That is, words and phrases related to conversation are extracted, and the extracted words and phrases are weighted.
以上のように、本実施形態においては、位置連動配信制御部236は、通話の話者の1人と同室環境又は当該話者の近傍に位置する場合には、同室環境の人物の発話に関するCOMMワード87の生成や配信処理を回避するような処理を行う。詳細には、位置連動配信制御部236は、図24のステップS603の処理をスキップするような処理を行う。
As described above, in the present embodiment, the position-interlocked
例えば、第2の実施形態を図15の例で説明すると、第三者ユーザが拠点B:大阪オフィスにいる場合、拠点Bにいる人物Fは第三者ユーザと同室におり周囲の会話として自然に聞こえている。このような場合には、本実施形態においては、人物Eと人物Fの二者通話における人物Fの発話分については、情報管理サーバ200Aは、COMMワード87を生成して第三者ユーザの端末装置100Uへ送信する処理を回避する。具体的には、図15のCOMMワード87Lは情報管理サーバ200Aで生成されない、または、端末装置100Uへは配信されず、結果、端末装置100Uの表示画面上には提示されないこととなる。
For example, when the second embodiment is described with reference to the example of FIG. 15, when the third party user is at the base B: Osaka office, the person F at the base B is in the same room as the third party user, and the conversation naturally occurs. Is heard. In such a case, in the present embodiment, for the utterance of the person F in the two-party call between the person E and the person F, the
なお、本実施形態においては、COMMワード87の配信を回避する処理を行うことに限定されるものではなく、例えば、COMMリンク86の配信を回避する処理を行ってもよい。また、本実施形態においては、COMMワード87の配信を回避する処理を行うことに限定されるものではなく、例えば、配信するCOMMワード87の量を少なくする処理を行ってもよい。
It should be noted that the present embodiment is not limited to performing the process of avoiding the distribution of the
すなわち、本実施形態によれば、同室環境の人物の発話に関するCOMMワード87の生成や配信処理を回避することにより、同一情報の二重提供を防ぎ、第三者ユーザの思考を混乱させることを避けることができる。詳細には、第三者ユーザの端末装置100の表示画面には、COMMワード87やCOMMリンク86が表示されなくなることにより、これらCOMMリンク86やCOMMワード87や重畳描画の背景となる撮像画像51の視認性が向上する。さらに、本実施形態においては、COMMワード87の生成や配信処理を回避することにより、本実施形態のシステムにおける処理の一部を軽減化し、処理の迅速化を図ることができる。
That is, according to the present embodiment, by avoiding the generation and distribution processing of the
<3. 第3の実施形態>
以下に説明する本発明の第3の実施形態は、既に開始された会話に対して、どの第三者ユーザが当該会話に関心を持っているかどうかを当該会話に関わる話者に示す。このようにすることで、同一環境で行われている会話のように、話者は関心を持っている第三者ユーザの存在に気が付き、当該会話に第三者ユーザを引き込むことができる。
<3. Third Embodiment>
A third embodiment of the invention described below, for a conversation that has already started, shows to the parties involved in the conversation which third-party user is interested in the conversation. By doing so, the speaker becomes aware of the presence of the interested third-party user and can attract the third-party user to the conversation, as in a conversation conducted in the same environment.
詳細には、先に説明したように、「会話」という行為は2名で行われるとは限らず、3名以上のグループで行われることも多い。このような場合に、会話の開始時にグループのメンバが全員そろっているパターンの他に、開始された会話の存在に周囲の者が気づき(Awareness:アウェアネス)、その者がその会話の場に後から加わることで、当該会話を行っているグループのメンバ数が増えていくようなパターンがある。 Specifically, as described above, the act of "conversation" is not always performed by two people, but is often performed by a group of three or more people. In such a case, in addition to the pattern in which all the members of the group are all available at the beginning of the conversation, the surrounding person notices the existence of the started conversation (Awareness), and the person comes to the place of the conversation. There is a pattern in which the number of members of the group having the conversation increases as a result of joining the group.
例えば、このような状況において、同室環境では、会話中の二者の近くに立って当該会話内容に関心を持って聴いている第三者の存在に、会話中の二者は自然に気づくだろう。また、上記第三者は同じ場所に立ち続けているとは限らず、上記会話内容への関心がさらに強まれば会話中の二者へさらに近づき、逆に会話内容への関心が失われれば会話中の二者から離れて去っていく。このように第三者は上記会話内容への関心度に合わせて自身の位置を能動的に変動させる。すなわち、第三者の会話内容への関心度は、会話中の二者と第三者との間の空間的「距離」として現象化される。さらに、当該距離が近ければ会話中の二者は第三者の存在に気づきやすくなり、逆に距離が遠ければ第三者に気づきにくくなる。そして、会話中の二者が、近づく第三者に気づいて会話に引き入れたり、第三者が会話の様子見をしながら徐々に近づいて行ってそのまま会話に参加したりして、自然な三者会話が始まることとなる。 For example, in such a situation, in the same room environment, the two parties in the conversation naturally notice the presence of a third party who stands near the two parties in the conversation and is interested in the content of the conversation. Let's do it. Further, the third party does not always stand in the same place, and if the interest in the conversation content becomes stronger, the third party will be closer to the two parties in the conversation, and conversely if the interest in the conversation content is lost. I leave the two in conversation and go away. In this way, the third party actively changes its position according to the degree of interest in the conversation content. That is, the degree of interest in the conversation content of the third party is manifested as a spatial “distance” between the two parties in the conversation and the third party. Further, if the distance is short, the two parties in the conversation are more likely to notice the existence of the third party, and conversely, if the distance is longer, the second party is less likely to notice the third party. Then, two people in the conversation notice the third party approaching and draw in the conversation, or the third party gradually approaches while attending the conversation and participates in the conversation as it is. Person conversation will begin.
しかしながら、従来から分散環境において使用されていた従来のソフトフォン製品は、先に説明したように、メンバ全員が会話の開始時からそろっているパターンを想定しているため、第三者に会話に対する関心度や、関心度に応じた会話の話者と第三者との相互の位置関係の変化を考慮して処理するものではない。従って、従来のソフトフォン製品を用いた場合、同室環境での会話と比べて、第三者が途中から加わりにくく、また、会話の二者側も第三者から急に話しかけられることとなることから、二者が驚き、第三者と二者との通話がスムーズに進まないことがある。 However, since the conventional softphone products that have been used in the distributed environment conventionally assume a pattern in which all the members are aligned from the beginning of the conversation, as described above, the softphone product is not available to the third party. The processing is not performed in consideration of the degree of interest and the change in the mutual positional relationship between the speaker of the conversation and the third party according to the degree of interest. Therefore, when a conventional softphone product is used, compared to a conversation in the same room environment, a third party is less likely to join in the middle of the conversation, and the two parties in the conversation can suddenly speak to the third party. Therefore, the two parties may be surprised and the call between the third party and the second party may not proceed smoothly.
そこで、本実施形態は、複数の遠隔地における第三者の会話への関心度を、たとえば仮想的な「距離」として第三者が直感的に設定入力でき、当該会話を行っている二者には、その距離(関心度)に応じて、当該会話に関心を持っている第三者が存在することを知らせる通知がなされるような機能を提供する。さらに、本実施形態は、上記距離(関心度)に応じて、当該会話に係る会話内容の情報を第三者が取得できるようにする機能を提供する。 Therefore, in the present embodiment, the degree of interest in a conversation of a third party at a plurality of remote locations can be intuitively set and input by a third party as, for example, a virtual "distance", and the two parties who are engaged in the conversation. Is provided with a function to notify that there is a third party who is interested in the conversation according to the distance (degree of interest). Furthermore, the present embodiment provides a function that allows a third party to acquire information on the conversation content related to the conversation according to the distance (degree of interest).
<3.1 端末装置の構成>
<3.1.1 機能構成>
図27を参照して、本実施形態に係る端末装置100Aの機能構成の一例を説明する。図27は、本実施形態に係る端末装置100Aの機能構成の一例を示すブロック図である。図27を参照すると、端末装置100Aは、第1の実施形態に係る端末装置100と同様に、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を有する。さらに、制御部180は、第1の実施形態と同様に、実空間情報提供部181、音声出力制御部182、位置取得部183、オブジェクト選択部185、ID取得部187、電話部189、会話オブジェクト選択部191、COMMリンク制御部193、及びCOMMワード制御部195を含む。加えて、制御部180は、会話関心度設定部196、話者関心比設定部197、及び、会話関心度通知部198をさらに含む。従って、ここでは、第1の実施形態と同様の機能部の説明は省略し、会話関心度設定部196、話者関心比設定部197、及び、会話関心度通知部198についてのみ説明する。
<3.1 Configuration of Terminal Device>
<3.1.1 Functional configuration>
An example of the functional configuration of the
(会話関心度設定部196)
会話関心度設定部196は、ユーザの端末装置100Aへの入力から、後述する「会話関心度(関心度)」の設定入力を受け付け、その結果を表示部150へ表示させるとともに、当該会話関心度に関するデータを情報管理サーバ200へと送信する。ここで、「会話関心度」とは、本明細書においては、本実施形態に係る情報処理システム上で発生したある通話(会話)に対してユーザが感じた関心の度合い、を多段階で示すものである。多段階とは、例えば各段階の間隔を1きざみとして、0:全く関心がない〜9:非常に関心がある、の10段階でもよいし、0〜99の100段階でもよいし、さらにVisual Analogue Scaleのように無段階の連続的な尺度であってもよい。なお、ひとつの会話関心度は、ひとつの通話(会話)、すなわちひとつのCOMMリンク86に紐付き、さらに、当該COMMリンク86に係る1つ又は複数のCOMMワード87に対して紐づくことができる。
(Conversation interest level setting unit 196)
The conversation interest
端末装置100Aのユーザによる、上記会話関心度の設定操作は、たとえば入力部120から数値を指定入力することであってもよい。しかしながら、より直感的に入力できる方法として、ユーザが、COMMリンク86に対して自身の仮想的な化体(以下、「第三者オブジェクト(ユーザオブジェクト)」)を配置し、その第三者オブジェクトの位置とCOMMリンク86の位置との間の仮想的距離により、会話関心度を入力する操作法を図28を参照して以下に説明する。図28は、分散オフィスに対応する3次元仮想空間90内における第三者オブジェクト94と仮想的距離97の一例を説明するための説明図である。
The operation of setting the conversation interest level by the user of the
図28においては、分散オフィスに対応する3次元仮想空間90が示されている。当該3次元仮想空間90には、人物Eに対応するオブジェクト91E及び人物Fに対応するオブジェクト91Fが配置されている。また、オブジェクト91Eと91F間には人物EとFの二者通話に対応したCOMMリンク86が生成され配置されている。なお、COMMリンク86の基となる両端のオブジェクト91はそれぞれ実空間上の別拠点に存在していても構わない。この場合、両端のオブジェクト91は同じ3次元仮想空間90内にそれぞれ絶対位置座標を持っており、全体位置座標からオブジェクト91間の相対的位置関係が算出されてもよい。もしくは、各拠点間の位置関係が予め定められおり、情報管理サーバ200が、その位置関係を用いて、拠点をまたぐ場合の各拠点に存在する人物に対応するオブジェクト91の相対的位置関係を算出してもよい。ユーザが、当該COMMリンク86に対して第三者オブジェクト94Uを設置すると、3次元仮想空間90には第三者オブジェクト94Uが新たに配置される。また、第三者オブジェクト94Uの位置は、ユーザの水平方向の位置指定だけで自由に設定できる。
In FIG. 28, a three-dimensional
そして、第三者オブジェクト94Uが3次元仮想空間90に配置されると、当該第三者オブジェクト94Uの3次元重心位置92Uと、COMMリンク86の話者関心比反映位置96U(話者関心比反映位置96Uの初期位置は、例えばCOMMリンク86の中点)が生成される。さらに、3次元重心位置92Uの位置と3次元重心位置96Uの位置との間の仮想的距離97Uを、後述する情報管理サーバ200Bや端末装置100Aが算出する。従って、ユーザ(第三者)が第三者オブジェクト94Uの配置位置を変更操作することで、仮想的距離97Uの大きさも対応して変更される。
When the third-
先に説明したように、会話への関心度の高いまたは低いという概念は、会話が発生している位置に対して会話の第三者がとる距離が近いまたは遠いという概念と、相性がよい。従って、上記距離に応じて会話への関心度を表示した場合、当該表示により直感的に関心度を把握することが可能である。また、前述の通り端末装置100Aは、表示部150に撮像画像51やマップ画像69を表示することができる。撮像画像51やマップ画像69は実空間の構造を射影した情報であるため、位置や距離といった情報を重畳させてグラフィカルに表示したりタッチ指定入力したりするのに適している。従って、本実施形態に係る情報処理システムにおいては、数値をキーボード等で指定入力させたり、その結果設定される仮想的距離の値を数値で表示させたりするよりも、前述の第三者オブジェクト94を、撮像画像51やマップ画像69上に投影して表示し、表示させた第三者オブジェクト94(詳細には画面表示体)に対して操作を行わせ、位置を変更することにより、会話への会話関心度を入力する方法を採用することが好ましい。このような方法を採用することにより、ユーザは、直感的に会話関心度を入力することが可能となり、ユーザの利便性が向上する。
As described above, the concept that the degree of interest in the conversation is high or low is compatible with the concept that the third party in the conversation is close or far away from the position where the conversation is occurring. Therefore, when the degree of interest in conversation is displayed according to the distance, the degree of interest can be intuitively grasped by the display. Further, as described above, the
なお、本実施形態においては、あるユーザは、ひとつのCOMMリンク86に対しひとつの第三者オブジェクト94および仮想的距離97を設定できる。しかし、本実施形態はこれに限定されるものではない。例えば、複数のCOMMリンク86に対しひとつの第三者オブジェクト94を設定し、当該第三者オブジェクト94の位置を変更すると、上記複数のCOMMリンク86との位置関係に従い、当該第三者オブジェクト94の上記複数のCOMMリンク86への複数の仮想的距離97が連動して変更されるような処理を行ってもよい。
In the present embodiment, a user can set one third-party object 94 and virtual distance 97 for one
次に、図29及び図30を参照して、本実施形態に係る端末装置100Aの表示画面に表示される第三者オブジェクト及び仮想的距離の一例を説明する。図29は、本実施形態に係る端末装置100Aの表示画面に表示される第三者オブジェクト及び仮想的距離の一例を説明するための説明図である。図30は、本実施形態に係る端末装置100Aの表示画面57に表示される第三者オブジェクト94及び仮想的距離97の他の一例を説明するための説明図である。
Next, an example of a third-party object and a virtual distance displayed on the display screen of the
図29においては、表示画面56が示されている。実空間では人物EとFが二者通話をしており、表示画面56上には当該二者通話に対応したCOMMリンク86H3が撮像画像51A、51B上に、またはCOMMリンク86H2がマップ画像69A、69B上に表示されている。ユーザ(第三者)はCOMMリンク86H3に対して、撮像画像51A、51B、51Z上の2次元表示位置に第三者オブジェクト94Uの位置を指定入力することができる。そして、当該入力に対応して撮像画像51上には第三者オブジェクト94Uの画面表示体(アイコン)98U3、話者関心比反映位置96Uの画面表示体101U3、および仮想的距離97Uの画面表示体103U3が表示される。
In FIG. 29, the
同様に、ユーザは、COMMリンク86H2に対して、マップ画像69A、69B、69Z上の2次元表示位置に第三者オブジェクト94Uの位置を指定入力することができる。そして、当該入力に対応してマップ画像69上には第三者オブジェクト94Uの画面表示体98U2、話者関心比反映位置96Uの画面表示体101U2、および仮想的距離97Uの画面表示体103U2が表示される。第三者オブジェクト94Uの画面表示体98U3または98U2は、例えば当該ユーザの氏名が描かれたアイコンでもよいし、図29に図示されているようにユーザの顔画像でもよい。ユーザの当該顔画像は、例えば、当該ユーザの端末装置100Aの撮像部130で撮影されて顔検出処理により顔領域をトリミングされた画像でもよい。
Similarly, the user can specify and input the position of the third-
ユーザは、第三者オブジェクト94Uの画面表示体98U3または98U2を、たとえば画面上でドラッグ操作し、前述の3次元仮想空間90における位置を指定入力することができる。ユーザによる上記位置の指定入力に対応して画面表示体98U3または98U2の画面上2次元表示位置も変更され、また、対応して仮想的距離97Uの長さと画面表示体103U3または103U2の表示上の長さと端点位置が変更される。そして、変更された仮想的距離97Uが、上記ユーザのCOMMリンク86H2に係る会話への会話関心度に対応する。なお、本実施形態においては、仮想的距離97と会話関心度との対応関係は、関心度の最大/最小値と、仮想的距離97の最大/最小値との対応関係が適切に対応していれば、任意に設定されてもよい。そして、会話関心度設定部196は、上述のような、ユーザの第三者オブジェクト94に対する操作に基づいて、当該ユーザの会話関心度を取得することができる。
The user can drag and operate the screen display body 98U3 or 98U2 of the
図30においては、表示画面57が示されている。表示画面57上には、図29と同様に、COMMリンク86H3または86H2、第三者オブジェクト94Uの画面表示体98U3または98U2、仮想的距離97Uの画面表示体103U3または103U2が表示されている。しかし、図30では、第三者オブジェクト94Uの画面表示体98U3または98U2は、図29の例と比較してCOMMリンク86H3または86H2により近い位置に設定されている。さらに、これに対応して、仮想的距離97Uの画面表示体103U3または103U2の表示上の長さと端点位置が変更されている。
A
さらに、図30ではCOMMリンク86H3または86H2近傍に表示されるCOMMワード87の数が図29よりも増えている。これは、同室環境では、第三者が二者会話の場の近くに寄るほど当該会話の内容がより多く聞こえる、という事象を本実施形態に係るシステムにおいて再現している。すなわち、ユーザが、会話に関心を持ち、第三者オブジェクト94Uの画面表示体98U3または98U2をCOMMリンク86H3または86H2により近い位置に設定した場合には、仮想的距離97Uの画面表示体103U3または103U2の長さが短くなり、会話関心度が高くなったことを示す。それに伴い、表示されるCOMMワード87の数が増加する。この仮想的距離97(すなわち、会話関心度)の大きさに応じたCOMMワード87の表示数の変更処理は、前述の、COMMワード制御部195による重み付き語句データの表示における重み閾値を用いた処理において、COMMワード制御部195が当該閾値の大きさを上記仮想的距離97の大きさに対応させて変化させることにより、実現されてもよい。
Further, in FIG. 30, the number of
なお、本実施形態においては、取得した会話関心度に基づき、COMMワード87の表示数を仮想的距離97の大きさに対応させて変化させることに限定されるものではない。例えば、本実施形態においては、マイクロフォン13や集音部140から取得され情報管理サーバ200Bを介してユーザの端末装置100Aから提示される会話の音声の音量を、音声出力制御部182により、会話関心度に応じて、すなわち、仮想的距離97の大きさに応じて変化させてもよい。
It should be noted that the present embodiment is not limited to changing the number of displayed
(話者関心比設定部197)
話者関心比設定部197は、ユーザの端末装置100Aへの入力から、後述する「話者関心比(関心度を比率)」の設定処理を行い、その結果を表示部150へ表示させるとともに、当該話者関心比に関するデータを後述する情報管理サーバ200Bへと送信する。また、話者関心比設定部197は、COMMワード制御部195が表示するCOMMワード87の話者別比率を変更させる。ここで、「話者関心比」とは、本明細書においては、本実施形態に係る情報処理システム上で発生したある通話における各話者(とその発話内容)に対してユーザが感じた会話関心度の高さの比率、を示すものである。例えば、話者関心比は、1つの会話の話者毎に0.0〜1.0の間の値をとり、さらに複数の話者の話者関心比の合計値は1.0となる。より具体的には、人物Eと人物Fとの二者の会話に対して、ユーザが関心を持った場合を例に説明する。ユーザは、上記会話に係るCOMMワード87の表示を見て、上記会話での人物Eの発言に対して、当該会話での人物Fの発言に比べて高い関心(詳細には、人物Eに対しては人物Fの4倍程度となる関心)を持っていると仮定する。このような場合、例えば、話者関心比は、当該会話に対する全体の会話関心度を1.0とすると、人物Eに対しては0.8、人物Fに対しては0.2として表現することができる。このように、ユーザが話者関心比を設定することにより、その設定比率に応じて、ユーザに対して、各話者に係るCOMMワード87(すなわち、話者の発言した語句)が表示部150の画面上に表示されることができる。
(Speaker interest ratio setting unit 197)
The speaker interest
以下に、図31及び図32を参照して、本実施形態に係る話者関心比を示す話者関心比反映位置96の設定の一例を説明する。図31は、分散オフィスに対応する3次元仮想空間90内における話者関心比反映位置(基準点)96の設定の一例を説明するための説明図である。図32は、本実施形態に係る端末装置100Aの表示画面58に表示される話者関心比反映位置96の設定の一例を説明するための説明図である。
An example of setting the speaker interest ratio reflection position 96 indicating the speaker interest ratio according to the present embodiment will be described below with reference to FIGS. 31 and 32. FIG. 31 is an explanatory diagram for explaining an example of setting the speaker interest ratio reflection position (reference point) 96 in the three-dimensional
図31においては、分散オフィスに対応する3次元仮想空間90が示されている。図28と比較して、話者関心比反映位置96Uが設定された位置が異なっている。なお、話者関心比反映位置96Uをユーザが設定する方法については後述する。図28では、話者関心比反映位置96Uは初期位置としてCOMMリンク86の線分の中点にあり、すなわち、ユーザの、人物Eへの話者関心比は0.5、人物Fへの話者関心比も0.5であり、話者関心比は人物E、Fの両方に対して等しい状態を示している。一方、図31では、話者関心比反映位置96Uは、COMMリンク86の線分上でオブジェクト91Eとオブジェクト91Fからそれぞれ7:3の距離長になる位置にあり、すなわち距離長に反比例して、ユーザの、人物Eへの話者関心比は0.3、人物Fへの話者関心比は0.7であることを示している。
In FIG. 31, a three-dimensional
また、図32においては表示画面58が示されている。図30と比較して、話者関心比反映位置96Uが設定された位置が異なっており、それを受けて図32の仮想的距離97Uの画面表示体103U3および103U2の表示上の長さと端点位置が図30と異なっている。話者関心比反映位置96Uは、図30はCOMMリンク86の線分の中点であったが、図32では図31の位置設定状態に合わせてオブジェクト91Eとオブジェクト91Fからそれぞれ7:3の距離長になる位置に設定されている。すなわち、図32の話者関心比反映位置96Uは、当該距離長に反比例して、ユーザの、人物Eへの話者関心比は0.7、人物Fへの話者関心比は0.3であることを示している。
A
また、図32では、COMMリンク86H3または86H2近傍に表示されるCOMMワード87の数の分布が図30と異なっている。すなわち、話者関心比が下がった(0.5→0.3)人物Eに関連するCOMMワード数(人物Eの近傍に表示されるCOMMワードの数)が減少し、話者関心比が上がった(0.5→0.7)人物Fに関連するCOMMワード数(人物Fの近傍に表示されるCOMMワードの数)は増加している。なお、話者関心比反映位置96Uの位置は、COMMリンク86H3または86H2上の1点をユーザがたとえばタッチ指定入力することを契機として設定されてもよい。
Further, in FIG. 32, the distribution of the number of
また、本実施形態においては、話者関心比反映位置96Uの位置は、他の方法により設定されてもよい。以下に、図33を参照して、他の一例を説明する。図33は、第三者オブジェクト94によって話者関心比反映位置96を設定する際の表示画面62の一例を説明するための説明図である。詳細には、図33は、端末装置100Aの表示画面50上の部分領域を示しており、図33の左右の図で、第三者オブジェクト94の向きとそれにより設定される話者関心比反映位置96が異なる例を2つ例示している。
Further, in the present embodiment, the position of the speaker interest
詳細には、図33の第三者オブジェクト94Uの画面表示体98U2は、第三者ユーザの顔画像の周囲にひとつの尖端部105を有する。そして、当該第三者オブジェクト94Uを指定入力する第三者ユーザは、例えば2本以上の指を用いたタッチ回転操作を行い、上記尖端部105の向きを変更することができる。さらに、当該尖端部105の向きの延長線99上に、人物Eのオブジェクトと人物Fのオブジェクト間に形成されたCOMMリンク86H2の線分が存在し、延長線99とCOMMリンク86H3と交わる場合、話者関心比設定部197は、その交点の位置を、話者関心比反映位置96Uの位置として取得する。このようにして、話者関心比反映位置96Uの位置が設定されるため、話者関心比設定部197は、ユーザの会話の話者に対する話者関心比を算出することができる。例えば、図33を見ると、図33の左図の第三者オブジェクト94Uの画面表示体98U2と比べて、右図の第三者オブジェクト94Uの画面表示体98U2は右方向に回転した向きとなっており、その向きに対応する話者関心比反映位置96U(画面表示体101U2)の位置も左図と比べ右図の方が右寄りに位置している。
In detail, the screen display body 98U2 of the
また、本実施形態においては、ユーザがCOMMリンク86及び第三者オブジェクト94を操作して、話者関心比を設定することに限定されるものではない。例えば、本実施形態においては、各COMMワード87に対するユーザの視線を認識し、認識した頻度を用いて、話者関心比を算出してもよい(例えば、人物Eと人物Fとが会話しており、ユーザが、画面表示された人物Eが発話した語句に係るCOMMワード87と人物Fが発話した語句に係るCOMMワード87とを見た場合を例に説明する。このような場合、ユーザの視線を検出する視線検出装置を用いることにより、各COMMワード87に向けられたユーザの視線を検出し、カウントすることができる。従って、ユーザが、人物Eが発話した語句に係るCOMMワード87に対して7回視線を落とし、人物Fが発話した語句に係るCOMMワード87に対して3回視線を落とした場合には、人物Eへの話者関心比は0.7、人物Fへの話者関心比は0.3とすることができる)。
In addition, the present embodiment is not limited to the user operating the
(会話関心度通知部198)
会話関心度通知部198は、情報管理サーバ200から会話関心度に関する情報を受信し、当該会話関心度に関する情報を、当該会話を行う人物の端末装置100の表示部150の画面上にプッシュ通知表示する。例えば、人物Cと人物Dが端末装置100Cと100D間で行っている二者通話に対し、ユーザの端末装置100Uが会話関心度を設定した場合には、端末装置100Cと100Dの各会話関心度通知部198は、後述する情報管理サーバ200Bから端末装置100Uで設定された会話関心度のデータを受信する。さらに、端末装置100Cと100Dの各会話関心度通知部198は、会話関心度の値の大きさに対応した注意喚起強度で、端末装置100Cと100Dの表示部150の画面上に、会話に関心を持つユーザの存在を知らせる通知を表示させる。ここで、上記通知は、例えばポップアップ形式のウィンドウ(表示)である。また、注意喚起強度は、上述の会話関心度に応じて設定され、会話関心度が大きいほど、注意喚起強度は大きくなる。上記通知の表示形態は、当該注意喚起強度に応じて変更される。具体的には、注意喚起強度が大きいほど、上記ポップアップ形式のウィンドウの表示の大きさが大きくなる。また、本実施形態においては、注意喚起強度に応じてウィンドウの表示の大きさを変更することに限定されるものではなく、ウィンドウの表示位置が変更されたり(画面の中央に近いほど注意喚起強度が大きい)、ウィンドウと背景とのコントラストを変更したり、ウィンドウの色、ウィンドウの表示アニメーション(動き)の種類等を変更してもよい。また、上記通知は、画面表示に限定されるものではなく、例えば、会話に関心を持つユーザの存在を知らせるサイン音等でもよく、この場合はサイン音の音量、周波数分布、リズム等を注意喚起強度に応じて変更してもよい。
(Conversation interest degree notification unit 198)
The conversation interest
以下に、図34を参照して、本実施形態に係る端末装置100Aの表示画面に表示される会話関心度に関する情報を含む通知の表示の一例を説明する。図34は、本実施形態に係る端末装置100Aの表示画面に表示される会話関心度に関する情報を含む通知の表示の一例を説明するための説明図である。図34の上側の表示画面59は注意喚起強度が高い通知の表示の一例であり、図34の下側の表示画面66は注意喚起強度が低い通知の表示の一例である。表示画面59においては、表示画面66と比べて、通知ウィンドウ107が大きなサイズで画面中央に近い位置に表示されており、ユーザが通知の出現に気づきやすくなっている。また、通知ウィンドウ107には、3次元仮想空間90における仮想的距離の大きさを表示してもよい(例えば、表示画面59のウィンドウ107においては「1.5m」と表示されている)。
Hereinafter, with reference to FIG. 34, an example of the display of the notification including the information regarding the conversation interest degree displayed on the display screen of the
なお、図34においては、該当する会話に対して一人の第三者が関心を示している場合の例を示しているが、同一の会話に対して複数の第三者が関心を示している場合には,1つのウィンドウでその旨の情報を示してもよく、もしくは、第三者ごとにウィンドウを表示させてもよい。また、図34においては、俯瞰モードで表示される表示画面にウィンドウが重ねられているが、本実施形態においては、このような表示形態に限定されるものではない。例えば、会話モードで表示される表示画面に上記ウィンドウが重ねられてもよい。 Although FIG. 34 shows an example in which one third party is interested in the corresponding conversation, a plurality of third parties are interested in the same conversation. In that case, the information to that effect may be shown in one window, or the window may be displayed for each third party. Further, in FIG. 34, the window is superimposed on the display screen displayed in the overhead view mode, but the present embodiment is not limited to such a display form. For example, the window may be superimposed on the display screen displayed in the conversation mode.
<3.2 情報管理サーバの構成>
<3.2.1 機能構成>
次に、図35を参照して、本実施形態に係る情報管理サーバ200Bの機能構成の一例を説明する。図35は、本実施形態に係る情報管理サーバ200Bの機能構成の一例を示すブロック図である。図35を参照すると、第1及び第2の実施形態の情報管理サーバ200と同様に、情報管理サーバ200Bは、通信部210、記憶部220及び制御部230を有する。さらに、制御部230は、第2の実施形態と同様に、COMMリンク配信部231、抽出語句データ管理部232、重み付け演算部233、COMMワード配信部234、発言状況演算部235、及び位置連動配信制御部236を含む。加えて、制御部230は、会話関心度制御部241をさらに含む。従って、ここでは、第1及び第2の実施形態と同様の機能部の説明は省略し、会話関心度制御部241についてのみ説明する。
<3.2 Information management server configuration>
<3.2.1 Functional configuration>
Next, an example of the functional configuration of the
(会話関心度制御部241)
会話関心度制御部241は、会話関心度に対応したCOMMワード87の提供情報量と、会話関心度に対応した通知の配信に係る処理を行う。詳細には、会話関心度制御部241は、関心度制御部242、表示体制御部243、関心会話情報量制御部244及び会話関心度通知送信部245を含む。
(Conversation interest degree control unit 241)
The conversation interest
(関心度制御部242)
関心度制御部242は、ユーザの通話に対する会話関心度の入力を取得し、COMMリンク86に対して、取得した当該会話関心度と、上記ユーザのオブジェクトID(通信用ID(通信用識別情報))とを関連付ける。さらに、紐づけられた会話関心度は、COMMリンク86とともに、COMMリンク配信部231及び通信部210を介して、端末装置100に配信される。このようにすることで、COMMリンク86に対応する2以上の話者のオブジェクトIDが、当該ユーザのオブジェクトIDと関連付けられる。そして、本実施形態においては、1つのCOMMリンク86に関連付けられたオブジェクトIDを参照して制御を行うことにより、話者の端末装置100に対して、上記ユーザの存在の通知を行うことができる。また、関心度制御部242は、ユーザの話者関心比を取得して、COMMリンク86に対して、取得した話者関心比と、上記ユーザのオブジェクトID(通信用ID(通信用識別情報))とを関連付けてもよい。この場合にも、紐づけられた話者関心比は、COMMリンク86とともに、COMMリンク配信部231及び通信部210を介して、端末装置100に配信される。
(Interest control unit 242)
The interest
(表示体制御部243)
表示体制御部243は、ユーザによる会話への会話関心度の入力操作が行われた場合には、当該ユーザに係る画面表示体98を生成する。さらに、表示体制御部243は、取得した会話関心度に基づいて、会話に対応するCOMMリンク86と画面表示体98との仮想的位置関係を決定する。詳細には、表示体制御部243は、ユーザによる会話への会話関心度の入力操作が行われた場合には、先に説明した3次元仮想空間90上に、当該ユーザに係る第三者オブジェクト94を配置する。この際、上記会話関心度に基づいて、3次元仮想空間90上のCOMMリンク86と第三者オブジェクト94との間の仮想的距離は決定される。さらに、表示体制御部243は、ユーザによる話者関心比の入力操作が行われて場合には、3次元仮想空間90において、COMMリンク86上の話者関心比に対応する位置に話者関心比反映位置96を配置する。
(Display control unit 243)
The display
(関心会話情報量制御部244)
関心会話情報量制御部244は、会話関心度および話者関心比に基づいて、COMMワード配信部234を制御する。より具体的には、関心会話情報量制御部244は、COMMワード配信部234におけるCOMMワード87の配信の際に行う、COMMワード87に係る重みの数値と比較される所定の閾値を、会話関心度および話者関心比に基づいて、変更する。
(Interested conversation information amount control unit 244)
The interest conversation information
(会話関心度通知送信部245)
会話関心度通知送信部245は、ユーザが設定した会話関心度(もしくは話者関心比)に対応した通知情報のデータを、会話関心度を設定されたCOMMリンク86の両端に位置するオブジェクト91の通信用IDに対応する端末装置100へ送信する。当該会話関心度に対応した通知情報のデータは、当該会話関心度や仮想的距離97の大きさ、当該会話関心度を設定した第三者ユーザの通信用ID、等を含む。
(Conversation interest degree notification transmission unit 245)
The conversation interest level
<3.3 処理の流れ>
続いて、図36を参照して、本実施形態に係る情報処理の例を説明する。図36は、本実施形態に係る、会話関心度設定とCOMMワード87の通信情報量変更と通知処理との概略的な流れの一例を示すシーケンス図である。図36には、ステップS801からステップS843までが含まれている。なお、図36のステップS801からステップS807は、それぞれ図24のステップS601からステップS607と同様の処理であり、ここでは説明を省略する。従って、ステップS801、ステップS803、ステップS805、ステップS807を順次行った後、以下のステップS821を行うこととなる。
<3.3 Process flow>
Subsequently, an example of information processing according to the present embodiment will be described with reference to FIG. 36. FIG. 36 is a sequence diagram showing an example of a schematic flow of conversation interest level setting, communication information amount change of the
(ステップS821)
端末装置100Uは、表示された端末装置100Cと端末装置100Dに対応するオブジェクトをつなぐCOMMリンク86に対し、会話関心度や話者関心比を設定するユーザ入力を取得する。
(Step S821)
The
(ステップS823)
端末装置100Uは、COMMリンク86に対して設定された会話関心度や話者関心比に関するデータを情報管理サーバ200Bへ送信する。
(Step S823)
The
(ステップS825)
情報管理サーバ200Bは、上記COMMリンク86に対して設定された会話関心度や話者関心比に関するデータを受信し、上記COMMリンク86の識別情報と対応させデータ管理する。
(Step S825)
The
(ステップS827)
情報管理サーバ200Bは、会話関心度や話者関心比の大きさに対応した情報量のCOMMワード87に関するデータを端末装置100Uへ送信する。
(Step S827)
The
(ステップS829)
端末装置100Uは、受信した会話関心度や話者関心比の大きさに対応した情報量のCOMMワード87に関するデータを利用して、表示部150に表示するCOMMワード87の状態を変更させる。
(Step S829)
The
(ステップS831、ステップS833)
情報管理サーバ200Bは、会話関心度に対応した通知情報のデータを端末装置100Cと100Dへ送信する。
(Step S831, Step S833)
The
(ステップS835、ステップS837)
端末装置100Cと100Dは、受信した会話関心度に対応した通知情報のデータを利用して、表示部150に会話関心度に対応した注意喚起強度で通知を表示させる。
(Step S835, Step S837)
The
(ステップS839)
端末装置100C(または100D)は、上記通知から第三者ユーザの存在に気づいた人物C(または人物D)による通話への引き込みの入力を取得する。
(Step S839)
From the notification, the
(ステップS841)
端末装置100Cは、上記通話への引き込みの入力に関するデータ(第三者ユーザの識別情報を含んでいてもよい)を情報管理サーバ200Bへ送信する。次に、ステップS809へ進む。
(Step S841)
The
(ステップS809、ステップS811)
ステップS809及び、その後のステップS811は、それぞれ図24のステップS609、ステップS611と同様の処理であり、ここでは説明を省略する。なお、ステップS811とステップS841は、どちらか一方の処理が実行されればステップS843へ進んで構わない。
(Steps S809 and S811)
Step S809 and subsequent step S811 are the same processes as step S609 and step S611 of FIG. 24, respectively, and description thereof will be omitted here. If either one of step S811 and step S841 is executed, the process may proceed to step S843.
(ステップS843)
情報管理サーバ200Bは、上記通話引き込みの入力に関するデータ、もしくは、上記COMMリンク86を指定するユーザ入力に関するデータを受信する。そして、上記COMMリンク86に対応する端末装置100Cと端末装置100D間の二者通話のセッションに端末装置100Uの通話を新たに加わり、端末装置100C、端末装置100D、端末装置100U間の三者通話のセッションが開始される。
(Step S843)
The
以上のようにして、本実施形態においては、複数の遠隔地における第三者の会話への会話関心度を、たとえば仮想的な「距離」として第三者が直感的に設定入力でき、当該会話を行っている二者には、その距離(会話関心度)に応じて、当該会話に関心を持っている第三者が存在することを知らせる通知がなされるような機能を提供する。さらに、本実施形態においては、上記距離(会話関心度)に応じて、当該会話に係る会話内容の情報を第三者が取得できるようにする機能を提供する。従って、本実施形態によれば、同室環境下での会話にように、会話中の二者の近くに立って当該会話内容に関心を持って聴いているような第三者の存在に気づくことができ、その気づきをきっかけとして、当該会話に第三者を招き入れることができる。その結果、本実施形態によれば、同室環境下での会話のように、第三者と二者との会話をスムーズに進めることができる。 As described above, in the present embodiment, the degree of interest in conversation with a third party at a plurality of remote locations can be intuitively set and input by the third party as, for example, a virtual “distance”. A function is provided to the two parties who are conducting a notification according to the distance (conversation interest level) to notify that there is a third party who is interested in the conversation. Furthermore, in the present embodiment, a function is provided that enables a third party to acquire information on the conversation content related to the conversation in accordance with the distance (degree of conversation interest). Therefore, according to the present embodiment, it is possible to notice the presence of a third party who stands close to two people in a conversation and is interested in the content of the conversation, as in a conversation in the same room environment. It is possible to invite a third party to the conversation by using the awareness. As a result, according to the present embodiment, it is possible to smoothly proceed with a conversation between the third party and the two persons, as in a conversation in the same room environment.
さらに、本実施形態においては、上記距離(会話関心度)に応じて、当該会話に係る会話内容の情報を第三者が取得できるようにする機能を提供する。従って、本実施形態によれば、同室環境下での会話のように、第三者が二者会話の場の近くに寄るほど当該会話の内容がより多く聞こえる事象と同様の事象を提供することができることから、より自然に第三者は会話に関する情報を取得し、取得した情報に基づいて、スムーズに当該会話に参加することができる。 Furthermore, in the present embodiment, a function is provided that enables a third party to acquire information on the conversation content related to the conversation in accordance with the distance (degree of conversation interest). Therefore, according to the present embodiment, it is possible to provide an event similar to a conversation in a room environment, in which the closer the third party is to the place of the two-party conversation, the more the content of the conversation can be heard. As a result, the third party can more naturally acquire information about the conversation and can smoothly participate in the conversation based on the acquired information.
<補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<Supplement>
The preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, but the present invention is not limited to these examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
例えば、実空間に対応する3次元仮想空間90として、センタオフィス10の3次元仮想空間90が用意される例を説明したが、本発明の実施形態はこれに限定されない。例えば、複数の3次元仮想空間90が用意されてもよい。一例として、実空間に対応する3次元仮想空間90は、複数のオフィスの各々について用意されてもよい。例えば、サテライトオフィス20、ホームオフィス20、他のセンタオフィス10等についての3次元仮想空間90も用意されてもよい。この場合に、各オフィスの3次元仮想空間90は、各オフィスの大きさに応じた大きさの3次元仮想空間であってもよい。また、端末装置100のオブジェクト選択部185は、複数の3次元仮想空間90のうちの所望の3次元仮想空間90のデータを取得してもよい。また、オフィス以外の3次元仮想空間90が用意されてもよい。
For example, the example in which the three-dimensional
また、人物が座席に座っている場合に限り当該人物に対応するオブジェクト91が選択される例を説明したが、本発明の実施形態はこれに限定されない。例えば、人物が座席に座っていない場合にもオブジェクト91が選択されてもよい。一例として、人物が座席に座っている場合には、当該座席に設置された通信装置の通信用IDが取得され、人物が座席に座っていない場合には、当該人物の携帯端末の通信用IDが取得されてもよい。
Further, the example in which the
また、通信用IDが電話番号である例を説明したが、本発明の実施形態はこれに限定されない。通信用IDは、電話番号以外のIDであってもよい。一例として、通信用IDは、電話番号以外のソフトフォン用IDであってもよい。また、別の例として、通信用IDは、電話以外の通信のためのIDであってもよい。例えば、通信用IDは、メールアドレスであってもよく、又はショートメッセージ用のIDであってもよい。この場合に、通信用IDを用いて、メールが送信され、又はショートメッセージが送信されてもよい。 Further, although the example in which the communication ID is a telephone number has been described, the embodiment of the present invention is not limited to this. The communication ID may be an ID other than a telephone number. As an example, the communication ID may be a softphone ID other than a telephone number. Further, as another example, the communication ID may be an ID for communication other than a telephone call. For example, the communication ID may be a mail address or an ID for a short message. In this case, an email or a short message may be transmitted using the communication ID.
また、オブジェクト91が選択された場合に当該オブジェクト91に対応する通信用IDが取得される例を説明したが、本発明の実施形態はこれに限定されない。例えば、オブジェクト91が選択された場合に当該オブジェクト91に対応するいずれかの識別情報が取得されてもよい。一例として、オブジェクト91が選択された場合にオブジェクト91に対応する人物のいずれかの識別情報が取得されてもよい。そして、例えば、この識別情報から、通信用IDが取得されてもよい。
Further, although an example in which the communication ID corresponding to the
また、実空間に対応する3次元仮想空間90に配置されるオブジェクト(オブジェクト選択部185により選択されるオブジェクト)91が人物に対応し且つ円柱状のオブジェクトである例を説明したが、本発明の実施形態はこれに限定されない。例えば、オブジェクトは、円柱状のオブジェクトではなく、別の形状のオブジェクトであってもよい。また、例えば、オブジェクト91は、人物以外のものに対応してもよい。一例として、オブジェクト91は、実空間の領域に対応してもよい。具体的には、例えば、オブジェクト91は、座席に対応し、当該座席の位置に対応する3次元仮想位置に配置されてもよい。そして、当該座席に設置された通信装置の通信用IDと上記オブジェクト91とが対応し、当該オブジェクト91が選択されると、当該通信用IDが取得されてもよい。また、オブジェクト91は、座席よりも広い領域に対応し、当該領域の範囲に対応する3次元仮想範囲に渡って存在してもよい。そして、当該領域内に設置された通信装置の通信用IDと上記オブジェクト91とが対応し、当該オブジェクト91が選択されると、当該通信用IDが取得されてもよい。
Further, an example in which the object (object selected by the object selection unit 185) 91 arranged in the three-dimensional
また、表示画面において撮像画像の位置がユーザによるタッチで指定される例を説明したが、本発明の実施形態はこれに限定されない。例えば、撮像画像の位置は、タッチパネル820以外の入力手段を用いてユーザにより指定されてもよい。例えば、撮像画像の位置は、マウスによるクリックで指定されてもよく、ボタン、キーボード等の別の入力手段を用いて指定されてもよい。
Further, although the example in which the position of the captured image is designated by the touch of the user on the display screen has been described, the embodiment of the present invention is not limited to this. For example, the position of the captured image may be designated by the user using an input unit other than the
また、カメラ11により生成される撮像画像、マイクロフォン13により生成される音声データ、及び、センサ15による判定結果が、それぞれ、カメラ11、マイクロフォン13及びセンサ15により、端末装置100に直接提供される例を説明したが、本発明の実施形態はこれに限定されない。例えば、別の装置によりこれらのデータが提供されてもよい。一例として、いずれかのサーバ(例えば、メディア配信サーバ)が、これらのデータを取得し、これらのデータを端末装置100に提供してもよい。
Further, an example in which the captured image generated by the
また、位置取得部183、オブジェクト選択部185及びID取得部187等の機能が端末装置100により備えられる例を説明したが、本発明の実施形態はこれに限定されない。例えば、これらの機能は、端末装置100以外の装置により備えられてもよい。一例として、これらの機能はいずれかのサーバにより備えられてもよい。また、COMMリンク配信部231及び語句抽出データ管理部232等の機能が情報管理サーバ200により備えられる例を説明したが、本発明の実施形態はこれに限定されない。例えば、これらの機能は、情報管理サーバ200以外の装置により備えられてもよい。一例として、これらの機能は端末装置100により備えられてもよい。
In addition, although an example in which the
また、実空間の撮像画像の表示画面が端末装置100により表示される例を説明したが、本発明の実施形態はこれに限定されない。例えば、当該表示画面は別の装置により表示されてもよい。一例として、上記表示画面はサテライトオフィス20に設置されたディスプレイ21により表示されてもよい。そして、ユーザが、当該ディスプレイ21において、表示画像に含まれる撮像画像の位置を指定してもよい。
Further, although the example in which the display screen of the captured image of the real space is displayed by the
また、話者及びユーザは、座席に着席しているものとして説明したが、本発明の実施形態はこれに限定されず、話者及びユーザは実空間上で移動していてもよい。例えば、各話者及びユーザが持っている、タブレット等の端末装置100による通信やカメラ11による被写体に追従した撮像により、移動する各話者及びユーザの位置を特定し、特定した位置に基づいて、上述の3次元仮想空間90におけるオブジェクトの位置を決定してもよい。
Further, although the speaker and the user are explained as being seated in the seat, the embodiment of the present invention is not limited to this, and the speaker and the user may be moving in the real space. For example, the position of each moving speaker and user is specified by communication performed by the
また、本明細書の情報処理における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、情報処理における処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。 Further, the processing steps in the information processing of the present specification do not necessarily have to be executed in time series in the order described in the flowchart. For example, the processing steps in the information processing may be executed in an order different from the order described as the flowchart or may be executed in parallel.
また、情報処理装置(例えば、端末装置)に内蔵されるCPU、ROM及びRAM等のハードウェアに、上記情報処理装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。 Further, it is possible to create a computer program for causing hardware such as a CPU, a ROM, and a RAM built in an information processing device (for example, a terminal device) to exhibit the same function as each component of the information processing device. A storage medium storing the computer program is also provided.
3 手
10 センタオフィス
11、813 カメラ
13、815 マイクロフォン
15 センサ
17 メディア配信サーバ
19、23 LAN
20 サテライトオフィス
21 ディスプレイ
30 外部ネットワーク
31 アイコン
40 PBX
50、55、56、57、58、59、60、62、66、70、80 表示画面
51、51A、51B、51Z 撮像画像
61 俯瞰撮像画像
63、63A、63B、73、83 ボタン画像
65、79C,79D、79E、79F プレゼンスアイコン
67 吹き出し画像
69、69A、69B、69Z、75 マップ画像
71 近接撮像画像
77、77A、77B、77C、77D、77E、77F 人物画像
81 相手側撮像画像
85 自分側撮像画像
86、86G2、86G3、86H2、86H3、86M2、86M3 COMMリンク
87、87I、87J、87K、87L COMMワード
90 3次元仮想空間
91、91A、91B、91C、91D、91E、91F オブジェクト
92、92C、92D、92E、92F、92U 3次元重心位置
93 仮想面
94、94U 第三者オブジェクト
96 96U 話者関心比反映位置
97 97U 仮想的距離
98、98U2、98U3、101、101U2、101U3、103、103U2、103U3 画面表示体
99 延長線
100、100A、100C、100D、100U 端末装置
105 尖端部
107 通知ウィンドウ
110、210、510 通信部
120 入力部
130 撮像部
140 集音部
150 表示部
160 音声出力部
170、220、520 記憶部
180、230、530 制御部
181 実空間情報提供部
182 音声出力制御部
183 位置取得部
185 オブジェクト選択部
187 ID取得部
189 電話部
191 会話オブジェクト選択部
193 COMMリンク制御部
195 COMMワード制御部
196 会話関心度設定部
197 話者関心比設定部
198 会話関心度通知部
200、200A、200B 情報管理サーバ
201 音声認識サーバ
231 COMMリンク配信部
232 抽出語句データ管理部
233 重みづけ演算部
234 COMMワード配信部
235 発言状況演算部
236 位置連動配信制御部
241 会話関心度制御部
242 関心度制御部
243 表示体制御部
244 関心会話情報量制御部
245 会話関心度通知送信部
531 語句抽出部
533 語句データ生成部
701、801、901 CPU
703、803、903 ROM
705、805、905 RAM
707、807、907 バス
709、809、909 記憶装置
711、811、911 通信インターフェース
817 スピーカ
820 タッチパネル
821 タッチ検出面
823 表示面
840 OS
851 ソフトフォン
853 超臨場感クライアント
855 電話発信制御機能
3
20
50, 55, 56, 57, 58, 59, 60, 62, 66, 70, 80 Display screen 51, 51A, 51B, 51Z Captured image 61 Bird's eye captured image 63, 63A, 63B, 73, 83 Button image 65, 79C , 79D, 79E, 79F Presence icon 67 Balloon image 69, 69A, 69B, 69Z, 75 Map image 71 Close-up image 77, 77A, 77B, 77C, 77D, 77E, 77F Portrait image 81 Opposite image 85 Self-side image Image 86, 86G2, 86G3, 86H2, 86H3, 86M2, 86M3 COMM link 87, 87I, 87J, 87K, 87L COMM word 90 3D virtual space 91, 91A, 91B, 91C, 91D, 91E, 91F object 92, 92C, 92D, 92E, 92F, 92U Three-dimensional barycentric position 93 Virtual plane 94, 94U Third party object 96 96U Speaker interest ratio reflection position 97 97U Virtual distance 98, 98U2, 98U3, 101, 101U2, 101U3, 103, 103U2, 103U3 screen display 99 extension line 100, 100A, 100C, 100D, 100U terminal device 105 tip 107 notification window 110, 210, 510 communication unit 120 input unit 130 image pickup unit 140 sound collection unit 150 display unit 160 voice output unit 170, 220, 520 Storage section 180, 230, 530 Control section 181 Real space information provision section 182 Voice output control section 183 Position acquisition section 185 Object selection section 187 ID acquisition section 189 Telephone section 191 Conversation object selection section 193 COMM link control section 195 COMM Word control unit 196 Conversation interest level setting unit 197 Speaker interest ratio setting unit 198 Conversation interest level notification unit 200, 200A, 200B Information management server 201 Speech recognition server 231 COMM link distribution unit 232 Extracted word data management unit 233 Weighting calculation unit 234 COMM word distribution unit 235 utterance status calculation unit 236 position-linked distribution control unit 241 conversation interest degree control unit 242 interest degree control unit 243 display body control unit 244 interest conversation information amount control unit 245 conversation interest degree notice transmission unit 531 word extraction unit 533 Word/Data Generator 701, 801, 901 CPU
703, 803, 903 ROM
705, 805, 905 RAM
707, 807, 907
851
Claims (31)
請求項1に記載の情報処理サーバ。 The control unit acquires a user's input to the conversation event object, and associates the communication identification information of the user with the communication identification information of the plurality of speakers linked to the conversation event object,
The information processing server according to claim 1.
前記制御部は、前記重みづけ処理の結果と所定の値とを比較し、比較結果に基づいて、前記発言語句オブジェクトに係るデータの配信を制御する、
請求項1に記載の情報処理サーバ。 Further comprising a weighting processing unit which performs weighting processing for the previous SL onset language phrase objects,
The control unit compares the results with the predetermined value of the weighting process based on the comparison result, it controls the distribution of data according to the talk word object,
The information processing server according to claim 1 .
請求項1に記載の情報処理サーバ。 An interest level control unit that acquires an input of the interest level of the user with respect to the call and associates the acquired interest level with the communication identification information of the user with respect to the conversation event object is further provided.
The information processing server according to claim 1.
請求項12に記載の情報処理サーバ。 A display body control unit configured to generate a display body related to the user, and determine a virtual positional relationship between the position of the conversation event object and the display body based on the acquired degree of interest,
The information processing server according to claim 12 .
前記制御部は、前記重みづけ処理の結果と、所定の値とを比較し、比較結果に基づいて、前記発言語句オブジェクトに係るデータの配信を制御し、
前記所定の値は、取得した前記関心度に基づいて、変更される、
請求項12又は13に記載の情報処理サーバ。 Further comprising a weighting processing unit which performs weighting processing on the calling language phrase objects,
The control unit compares the result of the weighting processing, and a predetermined value, based on the comparison result, controls the distribution of data according to the talk word object,
The predetermined value is changed based on the acquired degree of interest,
The information processing server according to claim 12 or 13 .
前記制御部は、前記重みづけ処理の結果と、所定の値とを比較し、比較結果に基づいて、前記発言語句オブジェクトに係るデータの配信を制御し、
前記所定の値は、取得した前記関心度及び前記関心度の比率に基づいて、変更される、
請求項15に記載の情報処理サーバ。 Further comprising a weighting processing unit which performs weighting processing on the calling language phrase objects,
The control unit compares the result of the weighting processing, and a predetermined value, based on the comparison result, controls the distribution of data according to the talk word object,
The predetermined value is changed based on the acquired interest level and the ratio of the interest levels,
The information processing server according to claim 15 .
請求項12から16のいずれか1項に記載の情報処理サーバ。 The interest degree control unit associates the communication identification information of the plurality of speakers associated with the conversation event object with the communication identification information of the user who inputs the interest degree for the call.
The information processing server according to any one of claims 12 to 16 .
前記通話に係る複数の話者の通信用識別情報のそれぞれに対応する複数のオブジェクトと、前記複数のオブジェクトを互いに紐づける、前記通話に係る会話イベントオブジェクトとを生成して、前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記会話イベントオブジェクトに係るデータおよび前記発言語句オブジェクトに係るデータを前記3次元仮想空間に配置する、
制御部を備える、情報処理サーバ。 Generate a three-dimensional virtual space corresponding to the real space where there are multiple speakers involved in the call,
A plurality of objects corresponding to the respective communication identification information of the plurality of speakers involved in the call, and a conversation event object related to the call, which associates the plurality of objects with each other, to generate voice data of the call. Generate a language phrase object related to the phrase extracted from the above , and arrange the data related to the conversation event object and the data related to the language phrase object in the three-dimensional virtual space,
An information processing server including a control unit .
前記ユーザに対応するユーザオブジェクトを前記3次元仮想空間に配置し、
取得した前記関心度に基づいて、前記3次元仮想空間における、前記会話イベントオブジェクトと前記ユーザオブジェクトとの間の仮想的距離を決定する、
表示体制御部をさらに備える、
請求項18に記載の情報処理サーバ。 Getting an input of the user's interest in the call,
Arranging a user object corresponding to the user in the three-dimensional virtual space,
Determining a virtual distance between the conversation event object and the user object in the three-dimensional virtual space based on the acquired degree of interest,
Further comprising a display body control unit,
The information processing server according to claim 18 .
取得した前記関心度の比率に基づいて、生成した前記会話イベントオブジェクト上に、前記関心度の比率を示す基準点を配置する、
関心度制御部をさらに備える、
請求項18に記載の情報処理サーバ。 Obtaining an input of interest rate ratios for the plurality of speakers involved in the call of the user,
Arranging a reference point indicating the interest rate on the generated conversation event object based on the obtained interest rate.
Further comprising an interest degree control unit,
The information processing server according to claim 18 .
前記情報処理サーバは、通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトを生成し、前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記会話イベントオブジェクトに係るデータおよび前記発言語句オブジェクトに係るデータを、前記複数の端末装置に配信する、
情報処理システム。 An information processing system including an information processing server and a plurality of terminal devices,
The information processing server associates communication identification information of a plurality of speakers involved in a call, generates a conversation event object related to the call, and generates a language phrase object related to a phrase extracted from the voice data of the call. Then, the data related to the conversation event object and the data related to the language phrase object are distributed to the plurality of terminal devices,
Information processing system.
前記ユーザの存在を示す通知表示を前記表示部に表示させ、
取得した前記関心度に基づいて、前記通知表示の大きさ、色、動き、コントラスト、表示位置のいずれか1つを制御する、
請求項28に記載の端末装置。 The conversation interest level notification unit,
Displaying a notification display indicating the presence of the user on the display unit,
Based on the acquired degree of interest, any one of the size, color, movement, contrast, and display position of the notification display is controlled.
The terminal device according to claim 28 .
前記ユーザの存在を示す音声出力を音声出力部に行わせ、
取得した前記関心度に基づいて、前記音声出力の音量を制御する、
請求項28に記載の端末装置。 The conversation interest level notification unit,
Causing the voice output unit to perform voice output indicating the presence of the user,
Controlling the volume of the audio output based on the acquired degree of interest;
The terminal device according to claim 28 .
通話に係る複数の話者の通信用識別情報を紐づける、前記通話に係る会話イベントオブジェクトを生成し、前記通話の音声データから抽出された語句に係る発言語句オブジェクトを生成し、前記会話イベントオブジェクトに係るデータおよび前記発言語句オブジェクトに係るデータの配信を制御する制御部として機能させるための、プログラム。
Computer,
A conversation event object relating to the call, which associates communication identification information of a plurality of speakers involved in the call, generates a language phrase object relating to the phrase extracted from the voice data of the call, and the conversation event object A program for functioning as a control unit that controls the distribution of the data related to the above and the data related to the language phrase object .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016169691A JP6729193B2 (en) | 2016-08-31 | 2016-08-31 | Information processing server, information processing system, terminal device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016169691A JP6729193B2 (en) | 2016-08-31 | 2016-08-31 | Information processing server, information processing system, terminal device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018036871A JP2018036871A (en) | 2018-03-08 |
JP6729193B2 true JP6729193B2 (en) | 2020-07-22 |
Family
ID=61565271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016169691A Active JP6729193B2 (en) | 2016-08-31 | 2016-08-31 | Information processing server, information processing system, terminal device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6729193B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020080510A (en) * | 2018-11-14 | 2020-05-28 | 新日本無線株式会社 | Communication system |
EP3716038A1 (en) * | 2019-03-25 | 2020-09-30 | Nokia Technologies Oy | An apparatus, method, computer program or system for indicating audibility of audio content rendered in a virtual space |
JP7293816B2 (en) * | 2019-04-02 | 2023-06-20 | 富士通株式会社 | Conversation analysis device, conversation analysis method and conversation analysis program |
JP2022103906A (en) * | 2020-12-28 | 2022-07-08 | 株式会社日立システムズ | Information processing system and information processing method |
WO2022180854A1 (en) * | 2021-02-26 | 2022-09-01 | 株式会社I’mbesideyou | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
JPWO2022180856A1 (en) * | 2021-02-26 | 2022-09-01 | ||
JPWO2022180857A1 (en) * | 2021-02-26 | 2022-09-01 | ||
JP7150114B1 (en) * | 2021-09-02 | 2022-10-07 | 株式会社ドワンゴ | COMMUNICATION SUPPORT SYSTEM, COMMUNICATION SUPPORT METHOD, AND COMMUNICATION SUPPORT PROGRAM |
CN114091414A (en) * | 2021-11-19 | 2022-02-25 | 北京有竹居网络技术有限公司 | Method, apparatus, device and medium for rewriting narrative text |
WO2023100594A1 (en) * | 2021-12-03 | 2023-06-08 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3185505B2 (en) * | 1993-12-24 | 2001-07-11 | 株式会社日立製作所 | Meeting record creation support device |
US5652789A (en) * | 1994-09-30 | 1997-07-29 | Wildfire Communications, Inc. | Network based knowledgeable assistant |
JP3783432B2 (en) * | 1998-10-12 | 2006-06-07 | 富士ゼロックス株式会社 | Electronic conference system, information processing apparatus, recording medium, electronic conference method, and information processing method |
US20040199580A1 (en) * | 2003-04-02 | 2004-10-07 | Zhakov Vyacheslav I. | Method and apparatus for dynamic audio and Web conference scheduling, bridging, synchronization, and management |
JP2006301972A (en) * | 2005-04-20 | 2006-11-02 | Mihatenu Yume:Kk | Electronic secretary system |
US7840668B1 (en) * | 2007-05-24 | 2010-11-23 | Avaya Inc. | Method and apparatus for managing communication between participants in a virtual environment |
JP2010074245A (en) * | 2008-09-16 | 2010-04-02 | Nippon Telegr & Teleph Corp <Ntt> | Method, apparatus and program for controlling speech connection and recording medium therefor |
US9007421B2 (en) * | 2011-06-21 | 2015-04-14 | Mitel Networks Corporation | Conference call user interface and methods thereof |
JP6149474B2 (en) * | 2013-04-10 | 2017-06-21 | 沖電気工業株式会社 | Information processing apparatus and program |
-
2016
- 2016-08-31 JP JP2016169691A patent/JP6729193B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018036871A (en) | 2018-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6729193B2 (en) | Information processing server, information processing system, terminal device, and program | |
US20220124130A1 (en) | Methods and systems for triggering livestream communications between users based on preexisting relationships between avatars within virtual environments | |
US10776070B2 (en) | Information processing device, control method, and program | |
JP5559691B2 (en) | Enhanced interface for voice and video communication | |
US9819902B2 (en) | Proximate resource pooling in video/audio telecommunications | |
CN101902356B (en) | System and method for managing incoming requests of communication sessions using a graphical call connection metaphor | |
EP3108416B1 (en) | Techniques for interfacing a user to an online meeting | |
JP6070783B2 (en) | Information processing apparatus, program, and information processing method | |
US20130174059A1 (en) | Communicating between a virtual area and a physical space | |
US20120297305A1 (en) | Presenting or sharing state in presence | |
US10403272B1 (en) | Facilitating participation in a virtual meeting using an intelligent assistant | |
WO2013181026A1 (en) | Interfacing with a spatial virtual communications environment | |
JP2023506186A (en) | USER TERMINAL, VIDEO CALL DEVICE, VIDEO CALL SYSTEM AND CONTROL METHOD THEREOF | |
US9369587B2 (en) | System and method for software turret phone capabilities | |
JP6149474B2 (en) | Information processing apparatus and program | |
US20160316054A1 (en) | Communication device, method, and program | |
JP6575561B2 (en) | Information processing apparatus, information processing method, and program | |
JP6881193B2 (en) | Information processing device, information processing method, program, display control device, display control method, program and information processing system | |
JP5529617B2 (en) | Remote conference apparatus, remote conference method, and remote conference program | |
JP6547467B2 (en) | Communication support device, communication support method, program and communication support system | |
EP4068699A1 (en) | Devices and related methods for providing environments | |
JP2015092414A (en) | Information processing device, program, and information processing method | |
JPWO2009025139A1 (en) | Communication system and communication program | |
JP2024011489A (en) | virtual space system | |
JP2024011488A (en) | Communication system in virtual space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6729193 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |