JP2004056405A - Reception supporting system, reception supporting method, reception supporting program, and recording medium with the program recorded thereon - Google Patents

Reception supporting system, reception supporting method, reception supporting program, and recording medium with the program recorded thereon Download PDF

Info

Publication number
JP2004056405A
JP2004056405A JP2002210354A JP2002210354A JP2004056405A JP 2004056405 A JP2004056405 A JP 2004056405A JP 2002210354 A JP2002210354 A JP 2002210354A JP 2002210354 A JP2002210354 A JP 2002210354A JP 2004056405 A JP2004056405 A JP 2004056405A
Authority
JP
Japan
Prior art keywords
moving image
customer
user
response
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002210354A
Other languages
Japanese (ja)
Inventor
Ryuichi Matsuzaki
松崎 隆一
Yasushi Tokunaga
徳永 裕史
Takashi Inoue
井上 貴司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002210354A priority Critical patent/JP2004056405A/en
Publication of JP2004056405A publication Critical patent/JP2004056405A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a novel reception supporting technology whereby a user and an opposite party share a video image to be watchedd as if the opposite party gestures in the sight of the user in order to support the opposite party dealing with the user of a terminal connected to a network. <P>SOLUTION: When receiving a moving picture resulting from photographing a scenery of the user side from the terminal operated by the user, a terminal operated by the opposite party receives the moving picture and displays it. When the opposite party takes an action in response to the display of the moving picture, the terminal of the opposite party photographs the motion of himself/herself, composes the photographed moving picture of himself/herself with the moving picture being displayed, and the terminal operated by himself /herself transmits the moving picture to the terminal operated by the user. Thus, the user and the opposite party can share the video image to be watched as if the opposite party gestures in the sight of the user. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、ネットワークを介して接続される端末の利用者に応対する応対者を支援するために用いられる応対支援システムと、その応対支援システムの実現に用いられる応対支援方法と、その応対支援方法の実現に用いられる応対支援プログラムと、その応対支援プログラムを記録した記録媒体とに関する。
【0002】
【従来の技術】
二名の利用者がネットワークを通じて応対する応対システムとして、Webコンタクトセンタシステムと呼ばれるものが市販されている。
【0003】
これは、顧客と企業の接客担当者とが、共通のWeb画面を通じて、そこに掲載されたコンテンツ映像を活用して、応対の効率化と顧客の満足度とを向上することを目的としたものである。
【0004】
従来のWebコンタクトセンタシステムは、写真やプレゼンテーションアプリケーション等の静的なコンテンツの共有を前提とした作りになっている。
【0005】
さらに、これらの静的なコンテンツに対して、電子白板と呼ばれる技術を用いて、利用者が描画した曲線や文字などのオブジェクトを重ね合わせ、オブジェクトを重ね合わせた後の合成映像を、利用者が共有するという機能を備えたシステムも存在している。
【0006】
【発明が解決しようとする課題】
しかしながら、従来の応対システムは、二名の利用者間で静的なコンテンツの共有しかできないので、たとえば、利用者Aが利用者Bに商品等の事物についての欠陥を指摘したいとしたときに、事物が動いて始めて欠陥が端的に現われるような場合、その欠陥を静的な映像で表現することは困難であった。
【0007】
また、共有コンテンツに対する重ね合わせの可能な対象が、曲線等のオブジェクトに限定されており、これらのオブジェクトがもともとの共有コンテンツの映像の一部を覆い隠してしまうという見映え上の問題もあった。
【0008】
また、これらの映像による応対経過をコンテンツとして保存したり、コンテンツにメタデータを付与するという機能を持っていないので、応対経過を企業における応対業務の改善や、応対のテーマとなった商品等の事物の仕様の改善等に有効利用することができなかった。
【0009】
本発明は、このような従来技術の持つ問題の解決を図る新たな応対支援技術の提供を目的とする。
【0010】
【課題を解決するための手段】
この目的を達成するために、本発明の応対支援システムは、ネットワークを介して接続される端末の利用者に応対する応対者を支援するために、▲1▼利用者の操作する端末から送信されてくる利用者側の光景を撮影した動画像を受信する手段と、▲2▼受信した動画像を応対者の操作する端末に表示する手段と、▲3▼動画像の表示に応答して行動する応対者の動きを撮影する手段と、▲4▼表示中の動画像に対して、撮影した応対者についての動画像を合成する手段と、▲5▼合成した動画像の表示と同期をとって、その動画像を利用者の操作する端末に送信する手段と、▲6▼合成表示した動画像を記憶装置に保存する手段と、▲7▼保存した動画像に対して属性情報を付与する手段と、▲7▼属性情報を使って、所定の処理を行う手段とを備えるように構成する。
【0011】
以上の各処理手段が動作することで実現される本発明の応対支援方法はコンピュータプログラムで実現できるものであり、このコンピュータプログラムは、半導体メモリなどのような適当な記録媒体に記録して提供することができる。
【0012】
このように構成される本発明の応対支援システムでは、利用者の操作する端末から利用者側の光景を撮影した動画像が送られてくると、その動画像を受信して応対者の操作する端末に表示する。
【0013】
この動画像の表示を受けて応対者はある行動をとるので、その応対者の動きを撮影して、その撮影した応対者についての動画像と表示中の動画像とを合成して応対者の操作する端末に表示するとともに、その合成表示の動画像を利用者の操作する端末に送信することで、利用者と応対者とが同一の動画像を共有するように処理する。
【0014】
そして、その合成表示した動画像を記憶装置に保存するとともに、その動画像に対して属性情報を付与して、例えば、その属性情報を使った検索や統計管理の要求があるときに、その処理を行うように処理する。
【0015】
このようにして、本発明では、利用者Aと応対者Bという二名がネットワークを通じて応対するときにおいて、▲1▼利用者A側の光景を撮影した動画像を利用者Aと応対者Bとで共有する機能と、▲2▼その共有している動画像に対して、応対者Bが説明のための身振り等をしている光景を撮影した映像を合成することで、あたかも応対者Bが利用者Aの間近で、説明のための身振り等をしているかのように見える映像を利用者Aと応対者Bとで共有する機能と、▲3▼その合成表示の動画像を録画し、その録画の結果生成されたコンテンツに、応対種別や商品名や顧客名などのコンテンツに固有の属性情報をメタデータとして付与して、そのメタデータを使った検索や統計管理を処理する機能とを用意することで、従来技術の問題の解決を達成をするものである。
【0016】
本発明によれば、利用者A側の光景を撮影した動画像を利用者Aと応対者Bとで共有するという機能が用意されることで、「利用者Aが応対者Bに商品等の事物についての欠陥を指摘したいとしたときに、事物が動いて始めて欠陥が端的に現われるような場合でも、欠陥を指摘できるようにする」という、本発明の課題を達成できるようになる。
【0017】
また、本発明によれば、あたかも応対者Bが利用者Aの間近で身振り等をしているかのように見える映像を利用者Aと応対者Bとで共有するという機能が用意されることで、応対者Bは指等を使って事物の欠陥について確認したり説明できるようになり、これにより、「曲線等のオブジェクトにより、事物の欠陥を指摘する場合に生じる、映像の一部を覆い隠してしまうという見映え上の問題を解消する」という、本発明の課題を達成できるようになる。
【0018】
また、本発明によれば、合成表示の動画像を録画するという機能が用意されることで、これらの映像による応対経過を必要に応じて再生できるようになるとともに、その録画の結果生成されたコンテンツにメタデータを付与するという機能が用意されることで、メタデータを使った検索やその統計的活用などの処理を実行できるようになる。これらの効果により、本発明によれば、「応対経過を企業における応対業務の改善や、応対のテーマとなった商品等の事物の仕様の改善等に有効利用することを実現する」という、本発明の課題を達成できるようになる。
【0019】
【発明の実施の形態】
図1に、本発明を具備するシステムの全体構成を図示する。
【0020】
この図に示すように、本発明を具備するシステムでは、顧客側に設けられる顧客側表示端末2と接客センタ1に設けられる接客側表示端末10とが、インターネットやIPネットワーク等の通信ネットワーク3を介して接続されている。
【0021】
そして、顧客側表示端末2には、顧客を撮影して顧客側表示端末2で送信するための撮像カメラ200が設けられるとともに、接客側表示端末10には、応対者を撮影して接客側表示端末10で送信するための撮像カメラ100が接続されている。
【0022】
このように構成される本発明を具備するシステムは、例えば、図2に示すように、接客センタ1のシステム設備をX社、Y社、Z社が自社で持つ代わりに、ASP(Application Service Agent) 事業者が保有して、X社、Y社、Z社に対してシステム機能を提供することで、接客側表示端末10と顧客側表示端末2との間で映像を共有しつつ、例えば、接客側表示端末10を操作する接客担当者が各企業の製品に対する苦情などを受け付けるようにして、その見返りに、ASP事業者は、X社、Y社、Z社からシステム機能使用料の支払いを受け取るというビジネスを実現可能にする。
【0023】
図3に、接客センタ1のシステム構成の一例を図示する。
【0024】
この図に示す接客センタ1では、接客側表示端末10は、LAN11を介して処理サーバ12に接続されている。また、このLAN11には、コンテンツアーカイブ13と、データベースサーバ14(DBサーバ)と、通信ネットワーク3に接続するためのルータ15とが接続されている。
【0025】
ここで、処理サーバ12は、映像全体から背景等の部分映像等を取り除くトリミング機能(例えば、画像中のある色を透明色として扱うことで、別の画像との合成を可能にするクロマキー合成などの機能で構成される)、トリミングした映像を別の映像と重ね合わせる編集機能等から構成される仕組みである。
【0026】
その他に、処理サーバ12は、受け付けた苦情などの件数やその応対に要した時間などを企業別に集計する処理を行うことで、各企業に請求する料金の計算処理を行う機能を持つこともある。
【0027】
また、コンテンツアーカイブ13は、応対の映像情報や音声情報を録画・録音することで生成されたコンテンツを保存する仕組みである。
【0028】
また、データベースサーバ14は、顧客情報、接客担当者情報に加えて、コンテンツのメタデータを管理する仕組みである。
【0029】
図4に、接客センタ1のシステム構成の他の一例を図示する。
【0030】
この図に示す接客センタ1では、複数の接客側表示端末10がLAN11に接続されており、これに合わせて、顧客側からの通信要求を分配するための仕組みであるACD16(automatic call distributor)がLAN11に接続されている。このACD16は、顧客からの接続要求があった場合に、空いている接客側表示端末10を見つけ出して、通信要求を接続する処理を行う。
【0031】
この図4の構成に従う接客センタ1を用いる場合には、顧客側表示端末2から製品についての苦情などの受付要求が発行されると、その受付要求はACD16で受け付けられ(処理サーバ12が受け付けてACD16を起動するという構成を用いることもある)、ACD16により空いている接客側表示端末10が選択されて、その選択された接客側表示端末10を操作する接客担当者が顧客側表示端末2から送られてくる製品についての苦情などを受け付ける処理を行うことになる。
【0032】
図5に、接客センタ1に設けられるACD16の機能ブロック構成の一例を図示する。
【0033】
ACD16は、接客側表示端末10から接続要求があるときに、空いている接客側表示端末10の選択処理を行う。
【0034】
ACD16は、上述の選択処理を行うために、図5に示すように、IPパケット送信部160と、IPパケット受信部161と、IPパケット分析部162と、端末接続/切断監視部163と、接客用端末空塞管理部164と、接客端末選択部165とを備える。
【0035】
このIPパケット分析部162は、受信したIPパケットが顧客側表示端末2からのものか、接客側表示端末10からのものかを分析する。そして、顧客側表示端末2から接続要求パケットを受け取った場合には、接客端末選択部165に対して、空いている接客側表示端末10の選択を指示し、一方、接客側表示端末10から接続開始又は接続終了を知らせるパケットを受け取った場合には、端末接続/切断監視部163に対して、その旨を知らせる。
【0036】
端末接続/切断監視部163は、IPパケット分析部162を介して転送されてくる接客側表示端末10からの接続開始、終了の情報を、接客用端末空塞管理部164に転送する。
【0037】
接客用端末空塞管理部164は、端末接続/切断監視部163から受け取る接客側表示端末10の接続開始、終了情報に従って、図6に示すようなテーブル構造を持つ接客用端末空塞管理テーブルを使って、接客側表示端末10の空塞を管理する。
【0038】
ここで、図6に示す接客用端末空塞管理テーブルでは、接客側表示端末10のIPアドレスと対応付けて、その接客側表示端末10が空き(1)であるのか使用中(0)であるのかを管理するという例を示しているが、IPアドレスの代わりに接客側表示端末10の論理番号を使うことも可能である。
【0039】
接客端末選択部165は、IPパケット分析部162から指示される接客側表示端末10の選択指示に応答して、接客用端末空塞管理部164を検索することで空いている接客側表示端末10を選択して、その接客側表示端末10に対して、接続要求元の顧客側表示端末2との間の接続を指示する。
【0040】
この構成に従って、ACD16は、顧客側表示端末2から接続要求を受け取ると、接客用端末空塞管理部164を検索することで空いている接客側表示端末10を選択して、その接客側表示端末10に対して、接続要求元の顧客側表示端末2との間の接続を指示するように処理するのである。
【0041】
図7に、接客センタ1に設けられる処理サーバ12の機能ブロック構成の一例を図示する。
【0042】
処理サーバ12は、顧客側表示端末2から送られてくる顧客側の映像と、接客側表示端末10から送られてくる接客担当者側の映像とを合成して、顧客側表示端末2および接客側表示端末10に送信するように処理する。
【0043】
処理サーバ12は、この処理を行うために、図7に示すように、送信バッファ120と、受信バッファ121と、トリミング部122と、編集部123と、処理バッファ124と、制御部125とを備える。
【0044】
この送信バッファ120および受信バッファ121は、他システムとの情報のやり取りの際に、通信速度と処理サーバ12側の処理速度との速度差を調整するために設けられる。トリミング部122は、映像全体から背景等の部分映像等を取り除くトリミング処理を行う。
【0045】
編集部123は、トリミングした映像を別の映像と重ね合わせる編集処理を行う。処理バッファ124は、トリミングや編集の過程で映像を一時的に格納するためのものとして用意される。制御部125は、編集部123/トリミング部122/処理バッファ124との映像の出し入れの開始/終了の契機等を制御する。
【0046】
この構成に従って、処理サーバ12は、顧客側表示端末2から送られてくる顧客側の映像と、接客側表示端末10から送られてくる接客担当者側の映像とを合成して、顧客側表示端末2および接客側表示端末10に送信するように処理するのである。
【0047】
図8に、接客センタ1に設けられるデータベースサーバ14の持つ管理テーブルの一例を図示する。
【0048】
この図に示すように、データベースサーバ14は、コンテンツの識別番号であるID、映像名称、映像種別、利用目的、応対相手の顧客を識別するための情報、接客担当名、コンテンツを保存したファイルの名称などの項目を管理する。
【0049】
次に、図9ないし図11に示す処理フローに従って、このように構成される接客センタ1の実行する応対支援処理について詳細に説明する。
【0050】
接客センタ1は、顧客側からの接続要求があると、図9の処理フローに示すように、先ず最初に、ステップ10で、その顧客側からの接続要求を着信する。
【0051】
続いて、ステップ11で、ACD16を起動することで空いている接客側表示端末10の選択を行い、続くステップ12で、その選択した接客側表示端末10のIPアドレスを算出する。
【0052】
続いて、ステップ13で、その算出したIPアドレスに基づいて、その選択した接客側表示端末10が顧客側からの接続要求を受信し、これにより、ステップ14で示すように、顧客側と接客側との間の接続が確立する。
【0053】
このようにして、顧客側と接客側との間の接続が確立すると、接客センタ1は、図10の処理フローに従って、顧客側と接客側との間で画面を共有しつつ応対支援処理を実行する。
【0054】
すなわち、接客センタ1は、顧客側から顧客側光景の映像(顧客側表示端末2の備える撮像カメラ200により撮影される)が送られてくると、図10の処理フローに示すように、先ず最初に、ステップ20で、その顧客側から送られてくる映像(動画像)を着信し、続くステップ21で、その着信した映像を接客側表示端末10に表示するとともに、その着信した映像を顧客側表示端末2へ送信することで、その着信した映像を顧客側表示端末2に表示させる。
【0055】
これにより、ステップ22で示すように、顧客側表示端末2と接客側表示端末10との双方で同じ映像を表示することになることで、顧客と接客担当者とが同じ映像を共有することになる。
【0056】
続いて、ステップ23で、接客側表示端末10の備える撮像カメラ100により撮影される接客担当者側光景の映像を取り込む。
【0057】
ここで、顧客側から送られてくる映像は、顧客が顧客側表示端末2の備える撮像カメラ200に向かって苦情の対象となる製品を見せながら身振り手振りでどういう苦情であるのか説明するという映像であり、接客担当者は、接客側表示端末10に表示されるこの映像を見ながら身振り手振りでその苦情を確認するという行動をとることから、このとき取り込む接客担当者側光景は、そのような行動をとる接客担当者の映像となる。
【0058】
このような接客担当者側光景の映像を入手すると、続いて、ステップ24で、映像全体から背景等の部分映像等を取り除くなどのトリミング処理を行うことで、接客担当者の体の全体あるいは一部の映像を抽出する。例えば、画像中のある色を透明色として扱うことで、別の画像との合成を可能にするクロマキー合成などの技術を使って、接客担当者の体の全体あるいは一部の映像を抽出するのである。
【0059】
続いて、ステップ25で、そのトリミング処理により抽出した接客担当者の映像と、処理バッファ124に蓄えられている顧客側から送られてきた映像とを合成する。
【0060】
続いて、ステップ26で、その合成した映像を接客側表示端末10に表示するとともに、その合成した映像を顧客側表示端末2へ送信することで、その合成した映像を顧客側表示端末2に表示させる。
【0061】
これにより、ステップ27で示すように、顧客側表示端末2と接客側表示端末10との双方で同じ編集映像を表示することになることで、顧客と接客担当者とが同じ映像を共有することになる。
【0062】
すなわち、図12に示すように、顧客からの動画像が着信する(図中の▲1▼)と、その動画像が受信バッファ121から処理バッファ124に取り込まれ、制御部125からの同期指示を経て、顧客側表示端末2と接客側表示端末10との間で映像の同期が行われる(図中の▲2▼)。
【0063】
続いて、接客担当者側光景の映像が取り込まれ、背景等を取り除くトリミング処理が行われた後、処理バッファ124に送られる。そして、このトリミング後の映像と処理バッファ124に蓄えられている映像とを、編集部123において重ね合わせる(図中の▲3▼)。
【0064】
続いて、この重ね合わせた後の映像を、制御部125からの同期指示を経て、顧客側表示端末2と接客側表示端末10との間で映像の同期が行われるのである(図中の▲4▼)。
【0065】
このようにして、接客担当者が顧客の間近で身振り手振りで応対するという映像を、顧客と接客担当者とで共有できるようになることで、顧客の苦情を正確に、しかも丁寧に聞くことができるようになる。
【0066】
接客センタ1は、このような形態で応対映像(音声情報も含む)を表示出力するときに、接客担当者などから映像の保存指示があると、その応対映像を録画して保存するように処理することになる。
【0067】
すなわち、接客センタ1は、録画した応対映像の保存指示が発行されると、図11の処理フローに示すように、先ず最初に、ステップ30で、録画した応対映像をコンテンツアーカイブ13へアップロードする。
【0068】
続いて、ステップ31で、接客担当者と対話することで、そのアップロードした応対映像の属性情報となるメタデータを投入(自動設定可能なIDなどについては自動設定する)し、続くステップ32で、その投入したメタデータにコンテンツファイル名をくくりつけることで、投入したメタデータとアップロードした応対映像とのくくりつけを行う。
【0069】
続いて、ステップ33で、その投入したメタデータをデータベースサーバ14に登録する。
【0070】
このようにして、接客センタ1は、応対映像を録画し、それにメタデータを付与して、コンテンツアーカイブ13およびデータベースサーバ14に保存するように処理するのである。
【0071】
このメタデータの保存を受けて、コンテンツアーカイブ13に蓄積した応対映像の検索を行うことができるようになるとともに、どの企業のどの製品に対してどのような苦情があったのかというようなことについての統計情報などを得ることができるようになる。
【0072】
図示実施形態例に従って本発明を説明したが、本発明はこれに限定されるものではない。例えば、実施形態例では、商品に対する苦情を受け付けてそれに応対するという例を具体例にして本発明を説明したが、本発明の適用される応対はそのような応対に限られるものではない。
【0073】
【発明の効果】
以上説明したように、本発明によれば、利用者Aが応対者Bに商品等の事物についての欠陥を指摘したいとしたときに、事物が動いて始めて欠陥が端的に現われるような場合でも、欠陥を指摘することが可能となる。
【0074】
また、本発明によれば、応対者Bは、自分自身の指等を使って事物の欠陥について確認したり説明できるようになるので、映像合成時の見映えが良くなる。
【0075】
さらに、本発明によれば、応対経過の映像(音声も含む)の保存が可能となり、これらの映像による応対経過を必要に応じて再生できるようになるとともに、メタデータを使った検索やその統計的活用を実行できるようになる。これから、本発明によれば、応対経過を企業における応対業務の改善や、応対のテーマとなった商品等の事物の仕様の改善等に有効利用することができるようになる。
【図面の簡単な説明】
【図1】本発明を具備するシステムの全体構成である。
【図2】本発明を具備するシステムにより実現されるビジネスの説明図である。
【図3】接客センタのシステム構成の一例である。
【図4】接客センタのシステム構成の他の一例である。
【図5】ACDの機能ブロック構成図である。
【図6】接客用端末空塞管理テーブルの説明図である。
【図7】処理サーバの機能ブロック構成図である。
【図8】データベースサーバの持つ管理テーブルの一例である。
【図9】接客センタの実行する処理フローの一実施形態例である。
【図10】接客センタの実行する処理フローの一実施形態例である。
【図11】接客センタの実行する処理フローの一実施形態例である。
【図12】本発明により実現される応対支援処理の説明図である。
【符号の説明】
1   接客センタ
2   顧客側表示端末
3   通信ネットワーク
10  接客側表示端末
11  LAN
12  処理サーバ
13  コンテンツアーカイブ
14  データベースサーバ
15  ルータ
16  ACD
100 撮像カメラ
200 撮像カメラ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a response support system used to support a user who responds to a user of a terminal connected via a network, a response support method used to realize the response support system, and a response support method And a recording medium on which the response support program is recorded.
[0002]
[Prior art]
As a response system in which two users respond through a network, a system called a Web contact center system is commercially available.
[0003]
This is intended to improve the efficiency of customer service and customer satisfaction by utilizing the content video posted on the common Web screen between the customer and the customer service representative of the company. It is.
[0004]
The conventional Web contact center system is designed on the premise of sharing static contents such as photos and presentation applications.
[0005]
Furthermore, by using a technique called an electronic whiteboard, these static contents are overlaid with objects such as curves and characters drawn by the user, and the composite video after the objects are overlaid is displayed by the user. Some systems have the function of sharing.
[0006]
[Problems to be solved by the invention]
However, the conventional response system can only share static content between two users. For example, when a user A wants to point out a defect of a product or the like to a user B, the user A cannot use the service. When a defect appears only after moving, it is difficult to express the defect with a static image.
[0007]
In addition, objects that can be superimposed on the shared content are limited to objects such as curves, and these objects obscure part of the original shared content image, which has a cosmetic problem. .
[0008]
In addition, since we do not have the function of saving the response process of these images as content or adding metadata to the content, we have been able to improve the response service at the company and to provide products that became the theme of the response, etc. It could not be used effectively to improve the specifications of things.
[0009]
An object of the present invention is to provide a new response support technology for solving such a problem of the conventional technology.
[0010]
[Means for Solving the Problems]
In order to achieve this object, the response support system according to the present invention provides a response from a terminal operated by a user in order to support a response to a user of a terminal connected via a network. Means for receiving a moving image of the incoming user, (2) means for displaying the received moving image on a terminal operated by the responder, and (3) action in response to the display of the moving image. Means for photographing the movement of the responding person, (4) means for synthesizing the moving image being photographed with the moving image being displayed, and (5) synchronization with the display of the synthesized moving image. Means for transmitting the moving image to a terminal operated by the user, (6) means for storing the synthesized and displayed moving image in a storage device, and (7) attribute information to the stored moving image. Means for performing predetermined processing using means and (7) attribute information. Configured to include and.
[0011]
The response support method of the present invention realized by the operation of each of the above processing means can be realized by a computer program, and the computer program is provided by being recorded on an appropriate recording medium such as a semiconductor memory. be able to.
[0012]
In the response support system of the present invention configured as described above, when a moving image of a scene on the user side is transmitted from a terminal operated by the user, the moving image is received and the response agent is operated. Display on terminal.
[0013]
Since the responder takes a certain action upon receiving the display of the moving image, the movement of the responder is photographed, and the moving image of the photographed responder and the moving image being displayed are combined to generate a response. By displaying the composite moving image to the terminal operated by the user while displaying the moving image on the operating terminal, the processing is performed so that the user and the responder share the same moving image.
[0014]
Then, the synthesized moving image is stored in a storage device, and attribute information is added to the moving image. For example, when there is a request for search or statistical management using the attribute information, the processing is performed. Is performed.
[0015]
As described above, according to the present invention, when two users, the user A and the agent B, respond via the network, (1) a moving image of the scene of the user A is captured by the user A and the agent B. The function of sharing, and (2) using the shared moving image with the image of the scene in which the respondent B is gesturing for explanation, etc., is used as if the respondent B is using it. A function to share between the user A and the respondent B an image that appears as if they are gesturing for explanation in the immediate vicinity of the user A, and (3) a moving image of the composite display is recorded. A function to assign attribute information unique to the content, such as the service type, product name, and customer name, as metadata to the content generated as a result of recording, and to process search and statistical management using the metadata To solve the problems of the prior art It is to the achievement.
[0016]
According to the present invention, by providing a function of sharing a moving image of a scene of the user A between the user A and the agent B, "the user A can use the agent B to send a product or the like to the agent B. When it is desired to point out a defect with respect to an object, the defect can be pointed out even if the defect appears only after the object moves. "
[0017]
Further, according to the present invention, a function is provided that allows the user A and the agent B to share an image that looks as if the agent B is gesturing close to the user A. The responder B can use the finger or the like to check or explain the defect of the thing, and thereby, "a part of the image generated when pointing out the defect of the thing by the object such as the curve" is covered. The problem of the present invention, which is to solve the problem of appearance ", can be achieved.
[0018]
Further, according to the present invention, by providing a function of recording a moving image of the composite display, it is possible to reproduce the response progress of these images as necessary, and to generate the result of the recording. By providing a function of adding metadata to content, it becomes possible to execute processes such as searching using the metadata and statistical utilization thereof. According to the present invention, by these effects, the present invention realizes that "the response process is effectively used to improve the response service in a company and to improve the specification of goods and the like, which are the theme of the response, etc." The object of the invention can be achieved.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows the overall configuration of a system equipped with the present invention.
[0020]
As shown in this figure, in a system equipped with the present invention, a customer-side display terminal 2 provided at a customer side and a customer-side display terminal 10 provided at a customer service center 1 are connected to a communication network 3 such as the Internet or an IP network. Connected through.
[0021]
The customer-side display terminal 2 is provided with an imaging camera 200 for photographing a customer and transmitting the photographed image on the customer-side display terminal 2, and the customer-side display terminal 10 photographs a customer and displays the customer-side display. An imaging camera 100 for transmitting at the terminal 10 is connected.
[0022]
For example, as shown in FIG. 2, the system having the present invention configured as described above uses an ASP (Application Service Agent) instead of owning the system facilities of the customer service center 1 by companies X, Y, and Z. By providing the system function to the company X, the company Y, and the company Z owned by the business operator, while sharing the video between the customer-side display terminal 10 and the customer-side display terminal 2, for example, The customer service representative operating the customer service display terminal 10 receives a complaint or the like for a product of each company, and in return, the ASP company pays the system function usage fee from the company X, the company Y, and the company Z. Make the business of receiving feasible.
[0023]
FIG. 3 illustrates an example of a system configuration of the customer service center 1.
[0024]
In the customer service center 1 shown in FIG. 1, a customer service display terminal 10 is connected to a processing server 12 via a LAN 11. The LAN 11 is connected to a content archive 13, a database server 14 (DB server), and a router 15 for connecting to the communication network 3.
[0025]
Here, the processing server 12 performs a trimming function for removing a partial image such as a background from the entire image (for example, chroma key synthesis that enables synthesis with another image by treating a certain color in the image as a transparent color). ), And an editing function for superimposing a trimmed video on another video.
[0026]
In addition, the processing server 12 may have a function of calculating a fee to be charged to each company by performing a process of totalizing the number of received complaints and the like and the time required for responding to each company. .
[0027]
The content archive 13 is a mechanism for storing content generated by recording video information and audio information in response to the content.
[0028]
Further, the database server 14 is a mechanism for managing metadata of contents in addition to customer information and customer service information.
[0029]
FIG. 4 illustrates another example of the system configuration of the customer service center 1.
[0030]
In the customer service center 1 shown in this figure, a plurality of customer service display terminals 10 are connected to a LAN 11, and an ACD 16 (automatic call distributor), which is a mechanism for distributing a communication request from a customer, is provided in accordance with this. It is connected to LAN11. When a connection request is received from a customer, the ACD 16 finds an empty reception side display terminal 10 and performs processing for connecting a communication request.
[0031]
In the case where the customer service center 1 according to the configuration of FIG. 4 is used, when a reception request such as a complaint about a product is issued from the customer display terminal 2, the reception request is received by the ACD 16 (the processing server 12 receives the request). A configuration in which the ACD 16 is activated may be used), the vacant reception side display terminal 10 is selected by the ACD 16, and the reception clerk who operates the selected reception side display terminal 10 is sent from the customer side display terminal 2. Processing for receiving a complaint or the like regarding the product sent is performed.
[0032]
FIG. 5 illustrates an example of a functional block configuration of the ACD 16 provided in the customer service center 1.
[0033]
The ACD 16 performs a process of selecting a vacant reception side display terminal 10 when there is a connection request from the reception side display terminal 10.
[0034]
As shown in FIG. 5, the ACD 16 includes an IP packet transmitting unit 160, an IP packet receiving unit 161, an IP packet analyzing unit 162, a terminal connection / disconnection monitoring unit 163, It is provided with a terminal empty / busy management unit 164 and a customer service terminal selection unit 165.
[0035]
The IP packet analysis unit 162 analyzes whether the received IP packet is from the customer display terminal 2 or from the reception display terminal 10. Then, when receiving the connection request packet from the customer side display terminal 2, it instructs the customer side terminal selection section 165 to select an empty customer side display terminal 10, while connecting from the customer side display terminal 10. When a packet indicating start or end of connection is received, the terminal connection / disconnection monitoring unit 163 is notified of the fact.
[0036]
The terminal connection / disconnection monitoring unit 163 transfers the connection start / end information from the reception side display terminal 10 transferred via the IP packet analysis unit 162 to the reception terminal occupancy management unit 164.
[0037]
According to the connection start / end information of the reception side display terminal 10 received from the terminal connection / disconnection monitoring unit 163, the reception terminal occupancy management unit 164 updates the reception terminal occupancy management table having a table structure as shown in FIG. To manage the occupancy of the customer-facing display terminal 10.
[0038]
Here, in the customer service terminal occupancy management table shown in FIG. 6, the customer service display terminal 10 is vacant (1) or in use (0) in association with the IP address of the customer service display terminal 10. Although an example is shown in which the management is performed, it is also possible to use the logical number of the reception side display terminal 10 instead of the IP address.
[0039]
The customer service terminal selection unit 165 searches for the customer service terminal occupancy management unit 164 in response to the selection instruction of the customer service display terminal 10 instructed by the IP packet analysis unit 162, and thereby detects the free customer service display terminal 10. And instructs the customer-facing display terminal 10 to connect to the customer-side display terminal 2 that is the connection request source.
[0040]
According to this configuration, upon receiving the connection request from the customer-side display terminal 2, the ACD 16 searches the customer-service terminal occupancy management unit 164 to select a vacant customer-side display terminal 10, and the customer-side display terminal 10 Processing is performed so as to instruct 10 to connect to the customer-side display terminal 2 that is the connection request source.
[0041]
FIG. 7 illustrates an example of a functional block configuration of the processing server 12 provided in the customer service center 1.
[0042]
The processing server 12 combines the customer-side image sent from the customer-side display terminal 2 with the customer-side image sent from the customer-side display terminal 10 to combine the customer-side display terminal 2 with the customer-side image. Processing is performed so as to be transmitted to the side display terminal 10.
[0043]
As shown in FIG. 7, the processing server 12 includes a transmission buffer 120, a reception buffer 121, a trimming unit 122, an editing unit 123, a processing buffer 124, and a control unit 125 to perform this processing. .
[0044]
The transmission buffer 120 and the reception buffer 121 are provided to adjust a speed difference between the communication speed and the processing speed of the processing server 12 when exchanging information with another system. The trimming unit 122 performs a trimming process for removing a partial image such as a background from the entire image.
[0045]
The editing unit 123 performs an editing process of superimposing the trimmed video with another video. The processing buffer 124 is prepared for temporarily storing a video in the process of trimming or editing. The control unit 125 controls, for example, the timing of start / end of video input / output to / from the editing unit 123 / trimming unit 122 / processing buffer 124.
[0046]
In accordance with this configuration, the processing server 12 combines the customer-side video sent from the customer-side display terminal 2 with the customer-facing staff video sent from the customer-side display terminal 10 to display the customer-side display. Processing is performed so as to be transmitted to the terminal 2 and the customer service display terminal 10.
[0047]
FIG. 8 illustrates an example of a management table of the database server 14 provided in the customer service center 1.
[0048]
As shown in this figure, the database server 14 stores the ID, which is the identification number of the content, the video name, the video type, the purpose of use, the information for identifying the customer of the service partner, the name of the customer service representative, and the file for storing the content. Manage items such as names.
[0049]
Next, the service support processing executed by the customer service center 1 configured as described above will be described in detail with reference to the processing flow shown in FIGS.
[0050]
Upon receiving a connection request from the customer side, the reception center 1 first receives a connection request from the customer side in step 10 as shown in the processing flow of FIG.
[0051]
Subsequently, in step 11, the ACD 16 is activated to select a vacant reception side display terminal 10, and in the following step 12, the IP address of the selected reception side display terminal 10 is calculated.
[0052]
Subsequently, in step 13, based on the calculated IP address, the selected reception side display terminal 10 receives a connection request from the customer side, and thereby, as shown in step 14, the customer side and the reception side The connection between is established.
[0053]
When the connection between the customer side and the customer service side is established in this way, the customer service center 1 executes the response support processing while sharing the screen between the customer side and the customer service side according to the processing flow of FIG. I do.
[0054]
That is, when the customer service center 1 receives the image of the customer side scene (taken by the imaging camera 200 provided in the customer side display terminal 2) from the customer side, first, as shown in the processing flow of FIG. In step 20, a video (moving image) sent from the customer is received. In step 21, the received video is displayed on the customer-side display terminal 10, and the received video is displayed on the customer side. By transmitting the video to the display terminal 2, the received video is displayed on the customer-side display terminal 2.
[0055]
Thereby, as shown in step 22, the same image is displayed on both the customer-side display terminal 2 and the customer-side display terminal 10, so that the customer and the customer service representative share the same image. Become.
[0056]
Subsequently, in step 23, an image of a customer service representative side scene captured by the imaging camera 100 of the customer service display terminal 10 is captured.
[0057]
Here, the image sent from the customer side is an image in which the customer shows the product to be complained to the imaging camera 200 provided in the customer side display terminal 2 and explains what kind of complaint it is by gesture. Since the customer service representative takes an action of confirming the complaint by gesturing while watching the image displayed on the customer service display terminal 10, the customer service sight taken at this time is such an action. It becomes the picture of the customer service representative who takes.
[0058]
When the image of the service clerk side scene is obtained, subsequently, in step 24, trimming processing such as removal of a partial image such as a background from the entire image is performed, so that the whole or one of the body of the service clerk is performed. Extract the video of the part. For example, by treating a certain color in an image as a transparent color and using techniques such as chroma keying to enable synthesis with another image, the entire or part of the body of the customer service representative is extracted. is there.
[0059]
Subsequently, in step 25, the image of the customer service representative extracted by the trimming process is combined with the image stored in the processing buffer 124 and sent from the customer side.
[0060]
Subsequently, in step 26, the synthesized video is displayed on the customer-side display terminal 10 while the synthesized video is transmitted to the customer-side display terminal 2 to display the synthesized video on the customer-side display terminal 2. Let it.
[0061]
As a result, as shown in step 27, the same edited video is displayed on both the customer-side display terminal 2 and the customer-side display terminal 10, so that the customer and the customer service representative share the same video. become.
[0062]
That is, as shown in FIG. 12, when a moving image from a customer arrives ((1) in the figure), the moving image is fetched from the reception buffer 121 into the processing buffer 124, and a synchronization instruction from the control unit 125 is transmitted. Then, video synchronization is performed between the customer-side display terminal 2 and the customer-side display terminal 10 ((2) in the figure).
[0063]
Subsequently, the image of the sight of the customer service representative is taken in, and a trimming process for removing the background and the like is performed. Then, the trimmed video and the video stored in the processing buffer 124 are superimposed in the editing unit 123 ((3) in the figure).
[0064]
Subsequently, the images after the superimposition are synchronized with each other between the customer-side display terminal 2 and the customer-side display terminal 10 through a synchronization instruction from the control unit 125 (in the figure, ▲). 4 ▼).
[0065]
In this way, the customer and the customer service representative can share the image of the customer service person responding with gestures close to the customer, so that the customer's complaints can be heard accurately and politely. become able to.
[0066]
When the service center 1 displays and outputs the service video (including audio information) in such a form, if there is an instruction to save the video from a service clerk or the like, the service center 1 records and stores the service video. Will do.
[0067]
That is, when an instruction to save the recorded response video is issued, the reception center 1 first uploads the recorded response video to the content archive 13 in step 30 as shown in the processing flow of FIG.
[0068]
Subsequently, in step 31, by interacting with the customer service representative, metadata serving as attribute information of the uploaded response video is input (IDs that can be automatically set are automatically set). In step 32, By attaching the content file name to the input metadata, the input metadata and the uploaded response video are connected.
[0069]
Subsequently, in step 33, the input metadata is registered in the database server 14.
[0070]
In this way, the customer service center 1 processes the video to record the service, add metadata to the video, and store it in the content archive 13 and the database server 14.
[0071]
In response to the storage of the metadata, it becomes possible to search for the response video stored in the content archive 13 and to find out what kind of complaint was given to which product of which company. Statistical information and the like can be obtained.
[0072]
Although the present invention has been described according to the illustrated embodiment, the present invention is not limited to this. For example, in the embodiment, the present invention has been described with a specific example of receiving and responding to a complaint about a product, but the present invention is not limited to such a response.
[0073]
【The invention's effect】
As described above, according to the present invention, when the user A wants to point out the defect about the thing such as the product to the respondent B, even if the defect appears only after the thing moves, Defects can be pointed out.
[0074]
Further, according to the present invention, the responder B can check and explain the defect of the thing using his / her own finger or the like, so that the appearance at the time of video synthesis is improved.
[0075]
Further, according to the present invention, it is possible to save the video (including sound) of the progress of the service, and to play back the progress of the service by using these videos as needed. Will be able to execute objective utilization. From this, according to the present invention, it is possible to effectively use the response process to improve the response business in a company, to improve the specification of a product or the like which is the theme of the response, and the like.
[Brief description of the drawings]
FIG. 1 is an overall configuration of a system including the present invention.
FIG. 2 is an explanatory diagram of a business realized by a system including the present invention.
FIG. 3 is an example of a system configuration of a customer service center.
FIG. 4 is another example of the system configuration of the customer service center.
FIG. 5 is a functional block configuration diagram of an ACD.
FIG. 6 is an explanatory diagram of a customer service terminal vacancy management table.
FIG. 7 is a functional block configuration diagram of a processing server.
FIG. 8 is an example of a management table of the database server.
FIG. 9 is an example of a processing flow executed by a customer service center according to an embodiment;
FIG. 10 is an embodiment of a processing flow executed by a customer service center;
FIG. 11 is an example of a processing flow executed by a customer service center according to an embodiment;
FIG. 12 is an explanatory diagram of a response support process realized by the present invention.
[Explanation of symbols]
1 Customer Service Center 2 Customer Display Terminal 3 Communication Network 10 Customer Service Display Terminal 11 LAN
12 processing server 13 content archive 14 database server 15 router 16 ACD
100 imaging camera 200 imaging camera

Claims (6)

ネットワークを介して接続される端末の利用者に応対する応対者を支援するために用いられる応対支援システムであって、
上記端末から送信されてくる利用者側の光景を撮影した動画像を受信する手段と、
上記受信した動画像を応対者の操作する端末に表示する手段と、
上記動画像の表示に応答して行動する応対者の動きを撮影する手段と、
上記表示中の動画像に対して、上記撮影した応対者についての動画像を合成する手段と、
上記合成した動画像の表示と同期をとって、その動画像を利用者の操作する端末に送信する手段とを備えることを、
特徴とする応対支援システム。
A response support system used to support a response to a user of a terminal connected via a network,
Means for receiving a moving image of the user's scene transmitted from the terminal,
Means for displaying the received moving image on a terminal operated by an attendant,
Means for photographing the movement of the responder acting in response to the display of the moving image,
Means for synthesizing a moving image of the photographed respondent with the moving image being displayed;
Means for transmitting the moving image to a terminal operated by a user in synchronization with the display of the synthesized moving image,
Characteristic response support system.
請求項1記載の応対支援システムにおいて、
上記合成表示した動画像を記憶装置に保存する手段と、
上記保存した動画像に対して属性情報を付与する手段と、
上記属性情報を使って、所定の処理を行う手段とを備えることを、
特徴とする応対支援システム。
The response support system according to claim 1,
Means for storing the synthesized and displayed moving image in a storage device,
Means for adding attribute information to the stored moving image,
Means for performing predetermined processing using the attribute information,
Characteristic response support system.
ネットワークを介して接続される端末の利用者に応対する応対者を支援するために用いられる応対支援方法であって、
上記端末から送信されてくる利用者側の光景を撮影した動画像を受信する過程と、
上記受信した動画像を応対者の操作する端末に表示する過程と、
上記動画像の表示に応答して行動する応対者の動きを撮影する過程と、
上記表示中の動画像に対して、上記撮影した応対者についての動画像を合成する過程と、
上記合成した動画像の表示と同期をとって、その動画像を利用者の操作する端末に送信する過程とを備えることを、
特徴とする応対支援方法。
A response support method used to support a response to a user of a terminal connected via a network,
Receiving a moving image of the user's scene transmitted from the terminal,
Displaying the received moving image on a terminal operated by an attendant;
A process of capturing the movement of the responder acting in response to the display of the moving image,
A process of synthesizing a moving image of the photographed respondent with the moving image being displayed,
Transmitting the moving image to a terminal operated by a user in synchronization with the display of the synthesized moving image,
Characteristic response support method.
請求項3記載の応対支援方法において、
上記合成表示した動画像を記憶装置に保存する過程と、
上記保存した動画像に対して属性情報を付与する過程と、
上記属性情報を使って、所定の処理を行う過程とを備えることを、
特徴とする応対支援方法。
The response support method according to claim 3,
Storing the synthesized and displayed moving image in a storage device;
Providing attribute information to the saved moving image;
Performing a predetermined process using the attribute information,
Characteristic response support method.
請求項3又は4記載の応対支援方法の実現に用いられる処理をコンピュータに実行させるための応対支援プログラム。A service support program for causing a computer to execute a process used to implement the service support method according to claim 3. 請求項3又は4記載の応対支援方法の実現に用いられる処理をコンピュータに実行させるための応対支援プログラムを記録した記録媒体。A recording medium storing a response support program for causing a computer to execute processing used for implementing the response support method according to claim 3.
JP2002210354A 2002-07-19 2002-07-19 Reception supporting system, reception supporting method, reception supporting program, and recording medium with the program recorded thereon Pending JP2004056405A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002210354A JP2004056405A (en) 2002-07-19 2002-07-19 Reception supporting system, reception supporting method, reception supporting program, and recording medium with the program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002210354A JP2004056405A (en) 2002-07-19 2002-07-19 Reception supporting system, reception supporting method, reception supporting program, and recording medium with the program recorded thereon

Publications (1)

Publication Number Publication Date
JP2004056405A true JP2004056405A (en) 2004-02-19

Family

ID=31933879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002210354A Pending JP2004056405A (en) 2002-07-19 2002-07-19 Reception supporting system, reception supporting method, reception supporting program, and recording medium with the program recorded thereon

Country Status (1)

Country Link
JP (1) JP2004056405A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005287004A (en) * 2004-03-03 2005-10-13 Canon Inc Image display method, program, image display apparatus, and image display system
JP2008211533A (en) * 2007-02-27 2008-09-11 Hitachi Ltd Contact center system
JP2009246826A (en) * 2008-03-31 2009-10-22 Nippon Telegraph & Telephone West Corp Communication device and method of controlling same
WO2014076236A1 (en) * 2012-11-15 2014-05-22 Steen Svendstorp Iversen Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor
EP2765502A1 (en) * 2013-02-08 2014-08-13 ShowMe Telepresence ApS Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefore
US9300908B2 (en) 2013-09-06 2016-03-29 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method
WO2018225806A1 (en) * 2017-06-08 2018-12-13 ナーブ株式会社 Information management system and information management method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005287004A (en) * 2004-03-03 2005-10-13 Canon Inc Image display method, program, image display apparatus, and image display system
JP4677245B2 (en) * 2004-03-03 2011-04-27 キヤノン株式会社 Image display method, program, image display apparatus, and image display system
JP2008211533A (en) * 2007-02-27 2008-09-11 Hitachi Ltd Contact center system
JP2009246826A (en) * 2008-03-31 2009-10-22 Nippon Telegraph & Telephone West Corp Communication device and method of controlling same
WO2014076236A1 (en) * 2012-11-15 2014-05-22 Steen Svendstorp Iversen Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor
US20150288933A1 (en) * 2012-11-15 2015-10-08 Steen Svendstorp Iversen Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor
US9491418B2 (en) 2012-11-15 2016-11-08 Steen Svendstorp Iversen Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor
EP2765502A1 (en) * 2013-02-08 2014-08-13 ShowMe Telepresence ApS Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefore
US9300908B2 (en) 2013-09-06 2016-03-29 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method
WO2018225806A1 (en) * 2017-06-08 2018-12-13 ナーブ株式会社 Information management system and information management method

Similar Documents

Publication Publication Date Title
US8965271B1 (en) Method and mechanism for coordinated capture and organization of multimedia data
TWI379581B (en) Information processing apparatus and method, and program
AU694416B2 (en) Communication system
US10235366B2 (en) Activity gallery view in communication platforms
US7705875B2 (en) Display device, system, display method, and storage medium storing its program
CN103428555A (en) Multi-media file synthesis method, system and application method
CN106375193A (en) Remote group photographing method
US20180071610A1 (en) Athletic training method and system for remote video playback
CN105939480A (en) Live broadcast method and device of terminal video
JP2007249821A (en) Content sharing system
WO2008016083A1 (en) Overlay information presentation device and overlay information presentation system
JP2018504701A (en) Image processing method and apparatus
RU90230U1 (en) VIDEO SURVEILLANCE SYSTEM WITH A COMMON SERVER ON THE INTERNET NETWORK
JP2004056405A (en) Reception supporting system, reception supporting method, reception supporting program, and recording medium with the program recorded thereon
CN113014832A (en) Image editing system and image editing method
JP2023054039A (en) Information processing system
CN109299048A (en) The method for handling data and issuing data
JP6446006B2 (en) Surveillance camera system, moving image browsing method and moving image combination method in surveillance camera system
CN114430494B (en) Interface display method, device, equipment and storage medium
JP6856960B1 (en) Business card exchange method and equipment
JP2008228014A (en) Video conference system, conference video processing method, program and recording medium
JP4946433B2 (en) Information distribution apparatus and program
JP7410611B1 (en) Content distribution server and content distribution system
KR102237940B1 (en) System for making and showing of augmented reality photos connected with video clips
WO2004014054A1 (en) Method and apparatus for identifying a speaker in a conferencing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060822

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061219