JP2004274349A - Business support system - Google Patents

Business support system Download PDF

Info

Publication number
JP2004274349A
JP2004274349A JP2003061714A JP2003061714A JP2004274349A JP 2004274349 A JP2004274349 A JP 2004274349A JP 2003061714 A JP2003061714 A JP 2003061714A JP 2003061714 A JP2003061714 A JP 2003061714A JP 2004274349 A JP2004274349 A JP 2004274349A
Authority
JP
Japan
Prior art keywords
data
image
image frame
terminal
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003061714A
Other languages
Japanese (ja)
Inventor
Mitsuhiko Seki
光彦 関
Kazuji Kotani
和司 小谷
Noboru Kobayashi
昇 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KOBASHOU KK
Original Assignee
KOBASHOU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KOBASHOU KK filed Critical KOBASHOU KK
Priority to JP2003061714A priority Critical patent/JP2004274349A/en
Publication of JP2004274349A publication Critical patent/JP2004274349A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system capable of communicating the image of a decided seller or purchaser in real time. <P>SOLUTION: This business support system is provided with a means for utilizing a video conference system for performing a video conference between users who are at least three persons (at least one person is a seller and at least two persons are decided purchaser) or more through the Internet and acquiring from each terminal image frame data and voice data compressed in each terminal, a means for allocating the plurality of pieces of acquired image frame data to a plurality of sections, obtained by dividing one image frame by compressing the plurality of pieces of acquired image frame data and ordering and arranging the image frame data while synchronizing them, and combining the sections into one piece of image frame data, a means for combining a plurality of acquired pieces of voice data, and a means for performing multicasting of the combined image data and voice data to respective user terminals. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、営業支援システムに関連し、より詳細には、複数の音声及び画像を通信するインターネットTV会議システムを利用する営業支援システムに関連する。
【0002】
【発明の背景】
一般に、企業が、ある商品ないしサービス(以下、単に「商品」という)を開発したとき、その商品を販売する人(以下、単に「販売者」という)は、その商品を購入するか否かを決定する人(以下、単に「購入決定者」という)に対して、商品説明をする場合もある。この場合、販売者が購入決定者の居る場所に出向いて、商品説明することは、珍しいことではない。
【0003】
従って、購入決定者の数が多くなる程、販売者は、それぞれの場所に出向く回数も増え、その結果、販売者の負担が大きいという問題がある。特に、同一企業内ないし同一グループ内に、複数の購入決定者がいる場合、販売者は、それぞれの場所に出向く必要があり、上記問題は、より深刻な問題である。このような状況としては、例えば、ある製薬会社が、新しいスギ花粉対策商品(例えば、▲1▼シソ濃縮エキス及び甜茶エキスを含む栄養補助食品、▲2▼刺激が少なく、かつ爽快感のあるミント系の香りを有する洗浄液を利用する鼻洗浄器など)を開発した場合、その会社の販売者が、同一企業内の複数の薬局店舗に出向いて、同じ商品説明を個別に行わなければならない状況である。
【0004】
このような状況において、従来のインターネットTV会議システムを利用することも考えられる。即ち、1人の販売者と複数の購入決定者との間に、全員の音声及び画像を通信させることが可能であれば、販売者は、複数の場所に出向く必要がなくなると考えられる。
【0005】
【発明が解決しようとする課題】
図1は、従来のインターネットTV会議システムの構成例の概略を示した図である。図1に示すように、従来のインターネットTV会議システムを利用すると、販売者と複数の購入決定者との総数がn人である場合、1台のパソコン(例えば、パソコン31)は、そのパソコンの所有者の1組の音声及び画像(例えば、図中の符号「F1」)をインターネット1を介してサーバー2に送信する一方、その所有者を含めた全員のn組の音声及び画像(「F1〜Fn」)をサーバー2から受信する必要がある。即ち、パソコン端末31、32、33、・・・、3nのそれぞれが、n組の音声及び画像(「F1〜Fn」)をサーバー2から受信する必要があるので、販売者及び購入決定者のそれぞれが、大容量の通信インフラ(例えば、FTTH)を備える必要があった。このような大容量の通信インフラを備えるには、膨大なコストを伴うため、結果として、従来のインターネットTV会議システムを利用して商品説明を行うことは、非現実的であった。
【0006】
一方で、現在の普及型通信インフラ(例えば、ADSL12Mなど)を利用したまま、商品説明を行うには、1組の音声及び画像のサイズを小さくすることも考えられる。しなしながら、各パソコン3は、n組の音声及び画像(「F1〜Fn」)を受信しなければならないため、リアルタイムで販売者ないし購入決定者の画像を通信することができず、実質的に、商品説明を行うことができなかった。
【0007】
そこで、本発明の目的は、現在の普及型通信インフラを利用したまま、リアルタイムで販売者ないし購入決定者の画像を通信することができるシステムを提供することである。
【0008】
一方、本発明を利用すれば、リアルタイムで販売者ないし購入決定者の画像を通信することができ、その結果、インターネットTV会議システムを利用して商品説明をすることが可能となる。従って、その商品説明後に、商談が成立し得り、インターネットTV会議システムを利用して契約行為を行うことが可能となる。
【0009】
そこで、本発明の別の目的は、インターネットTV会議システムを利用する契約行為を促進し、又は証明することができるシステムを提供することである。
なお、本発明の他の目的は、以下に説明する発明の実施の形態を参照することによって、明らかになるであろう。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明の営業支援システムは、インターネットに接続された少なくとも3台以上のTV会議用の端末と、インターネットに接続されたサーバとからなり、インターネットを介して少なくとも3人以上のユーザ間でTV会議を行うためのTV会議システムを利用する営業支援システムおいて、
サーバは、
各端末から、各端末において圧縮された画像フレームデータ及び音声データを取得するデータ取得手段と、
取得された複数の画像フレームデータを圧縮しかつ同期をとりつつ整理調整することにより、取得された複数の画像フレームデータを、1つの画像フレームを分割することによって得られる複数の区分に割り当てて、1つの画像フレームデータに合成する画像データ圧縮合成手段と、
取得された複数の音声データを合成する手段と、
合成された画像フレームデータ及び音声データをユーザ端末のそれぞれにマルチキャストするデータ配信手段と
を備え、
少なくとも1台の端末が、販売者用の端末であり、
少なくとも2台の端末が、購入決定者用の端末である。
【0011】
購入決定者用の複数の端末の内の少なくとも1つの端末が、TV会議用のカメラを備えいない場合、好ましくは、
TV会議システムサーバはさらに、静止画像を記憶した記憶手段を備え、
画像データ圧縮合成手段は、1つの画像フレーム中のカメラを具備していないユーザ端末に対応する区分に、記憶手段から静止画像を読み出して割り当てるよう構成される。
【0012】
TV会議に参加する購入決定者用の端末の数が、1つの画像フレームの複数の区分の数に満たない場合、好ましくは、
画像データ圧縮合成手段はさらに、余剰の区分に、記憶部から静止画像を読み出して割り当てるよう構成される。
【0013】
さらに好ましくは、データ取得手段はさらに、取得された音声データの内の最も音量が大きい音声データ、又は、端末から発言者を表すキー操作信号を検出する手段を備え、
画像データ圧縮合成手段はさらに、検出された音量が最も大きい音声データに対応する端末、又は、検出された発言者を表すキー操作信号の送信元の端末からの画像フレームデータを処理して、該データの画像が他の端末からの画像に対比して拡大して1つの区分に割り当てるよう構成される。
【0014】
加えて、サーバはさらに、
TV会議に参加を許可された販売者及び購入決定者の音声分析結果データを予め記憶しており、取得された音声データを分析し、予め記憶された音声分析結果データに一致するか否かを判定する手段を備え、
複数の音声データを合成する手段は、音声分析結果データに一致する音声データのみ合成し、
画像データ圧縮合成手段は、一致する音声データに対応する画像フレームデータのみ圧縮し、1つの画像フレームデータに合成するよう構成されていることが好ましい。
【0015】
また、サーバはさらに、合成された画像フレームデータ及び音声データを記憶する手段を備えることが好ましい。
さらに、上記目的を達成するために、本発明の営業支援システムは、インターネットに接続された少なくとも1台以上の映像監視用の端末と、インターネットに接続された少なくとも2台以上のカメラと、インターネットに接続されたサーバとからなり、インターネットを介して少なくとも2台以上のカメラからの映像監視を行うための映像監視システムを利用する営業支援システムおいて、
サーバは、
各カメラから画像フレームデータを取得するデータ取得手段と、
取得された複数の画像フレームデータを圧縮し、圧縮された複数の画像フレームデータを、1つの画像フレームを分割することによって得られる複数の区分に割り当てることにより、1つの画像フレームデータに合成する画像データ圧縮合成手段と、
合成された画像フレームデータを端末にマルチキャストするデータ配信手段と
を備え、
カメラが、商品を備える店舗内に配置されている。
【0016】
【発明の実施の形態】
第1の実施形態
以下に、本発明の第1の実施形態について、図面を参照して説明する。
【0017】
図2は、本発明の営業支援システム10の構成例の概略を示した図であり、図3は、図2中のサーバ4の機能ブロック図を示し、図4は、図2中の端末5の概略的な機能ブロック図を示す。
【0018】
本発明の営業支援システム10は、図2に示すように、インターネット3に接続可能なサーバ4及び少なくとも3台の端末51、52、53、・・・、5n(以下、代表して表す場合には「端末5」で表す)を備える。
【0019】
図2中のサーバ4は、図3に示すように、データ取得部41と、画像データ圧縮合成部42と、音声データ合成部43と、データ送信部44と、資料管理部45と、静止画像記憶部46と、資料記憶部47と、を備えている。
【0020】
また、図2中の各端末5(例えば、パソコン)は、図4に示すように、様々なモードを実行するためのプログラムモジュール(PM)48を予め記憶している。それらのモードは、例えば、TV会議参加者(少なくとも1人の営業者と少なくとも2人の購入決定者)の画像を表示する「ユーザ画像表示モード」と、会議資料を作成編集するための「資料作成編集モード」と、会議資料を表示するための「プレゼンテーションモード」と、である。また、各端末5は、サーバ4のデータ取得部41及びデータ送信部24との間で、適宜のプロトコルでデータ通信を行うが、そのためのプログラム(P)48’も、各端末5内に予め記憶されている。さらに、各端末5は、画像データ及び音声データを、適宜の圧縮方法でデータ圧縮を行うが、そのためのプログラム(P)48’も、各端末5内に予め記憶されている。なお、各端末5は、カメラ、マイク、スピーカ及びディスプレイ49、並びに、ビデオコーディック及び音声コーディック49’を備えている。
【0021】
以下に、端末51〜5nにおいて実行される「ユーザ画像表示モード」、「資料作成編集モード」、及び「プレゼンテーションモード」での動作について説明する。
【0022】
[ユーザ画像表示モード]
各端末5においてユーザ画面モードが選択されると、サーバ4のデータ取得部41は、インターネットTV会議に参加する端末51〜5nから、例えば端末51〜5nの順番で、各端末5において圧縮された画像フレームデータ(図2中の「F1」〜「Fn」)を取り込む。
【0023】
すなわち、データ取得部41は、まず端末51(例えば、この端末を営業者が所有する)に対して送信要求(画像データ及びそれに付随する音声データを送信するよう指示するための要求)を出力する。すると、それに応答して、端末51が、カメラ49で現在撮影されかつ圧縮された画像フレームデータF1(少なくとも営業者の顔を含む)と、マイク49で取得されかつ圧縮された音声データ(営業者の音声)とを、データ取得部41に返送する。同様にして、データ取得部41が、端末52〜5n(例えば、これらの端末を購入決定者が所有する)に対して送信要求を順次送信すると、端末52〜5nは、現在の圧縮された画像フレームデータF2〜Fn(少なくとも購入決定者の顔を含む)及び音声データ(購入決定者の音声)を、データ取得部41に返送する。データ取得部41は、TV会議中、このような画像フレームデータの取得動作を反復実行する。
【0024】
データ取得部41により取得された画像フレームデータF1〜Fnは、同期をとって画像データ圧縮合成部42に供給され、また、データ取得部41により取得された音声データは、同期をとって音声データ合成部43に供給される。
【0025】
サーバ4の画像データ圧縮合成部42は、画像フレームデータF1〜Fnが入力されると、該データをそれぞれ圧縮する。画像データの圧縮は、適宜の既知の圧縮方法を採用可能であるが、各画像フレームデータを1/n以下に圧縮する必要がある。画像データ圧縮合成部42には、圧縮された画像フレームデータF1〜Fnを、それぞれサブフレームデータFs1〜Fsnとして、これらサブフレームデータを「1つ」の画像フレームデータFのどこに組み込むかが、予め設定されている。
【0026】
図5は、各端末5の各ディスプレイ49に表示される画像M(フレームデータF)の構成例を表す。図5に示すように、例えば、サブフレームデータFs1〜Fsnによるサブ画像M1〜Mnのそれぞれが、画面Mをn個に分割した区分のそれぞれに割り当てられるように、サブフレームデータ列(Fs1〜Fsn)が、組み替えられる。これにより、取得された画像フレームデータF1〜Fnは、1つの画像フレームデータFに合成される。合成された画像フレームデータFは、データ送信部44に供給される。
【0027】
音声データ合成部43は、端末51〜5nから画像フレームデータF1〜Fnに付随して送られてくる音声データを、データ取得部41から受け取り、これを合成して(必要に応じて圧縮して)データ送信部44に供給する。
【0028】
データ送信部44は、画像フレームデータF及び音声データを画像データ圧縮合成部42及び音声データ合成部43から受け取ると、これらをTV会議の参加者の端末51〜5nすべてにマルチキャストする。これにより、各端末5には、図5に示すように、1つの画面M上に、サブフレームデータFs1〜Fsnに対応するサブ画像M1〜Mnが表示される。
【0029】
端末51〜5nにマルチキャストされる画像フレームデータFは、サーバ側での整理・調整処理により、1枚の画像フレームデータであるので、各端末に複数の画像フレームデータをマルチキャストする従来例のインターネットTV会議システムに対比して、送信される画像データの量が低減されており、したがって、インターネット1、サーバ4及び各端末5の負荷が低減される。また、参加端末がいくら増大しても、一定の画像データ量を超えることがない方式としているため、インターネットの負荷が低減される上、全ての端末側のデータ量を合計した画像データフレームF及び音声データのデータ通信速度が、例えば300kbps以下となる方式にしている。この画像データ量の低減は、端末5の数が大きくなるほど、大きくなる。したがって、何百人という規模の同時会議においても音声及び画像品質が安定したTV会議システムを実現することができる。
【0030】
図6は、各端末5の各ディスプレイ49に表示される画像M(フレームデータF)のもう1つの構成例を表す。
上記においては、TV会議の参加者総てが、画像データ及び音声データをシステムサーバ2のデータ取得部41に返送する例について説明したが、カメラを保有していない購入決定者であっても、音声のみでTV会議に参加することが可能である。例えば、端末53にカメラ49が備えられていない場合、合成された画像フレームデータFのサブフレームデータFs3に対応するサブフレームデータFsNCには、静止画像記憶部46に予め記憶されている適宜の静止画像(例えば、端末46の所有者の静止画像、カメラがない旨の表示等)がサブ画像M3として割り当てられる。カメラがない端末が、TV会議に参加する場合、画像データ圧縮合成部42は、静止画像記憶部46からの静止画像を最後尾の区分(サブ画像Mnの位置)に配置するよう自動的に割り当てることもできる。
【0031】
また、例えば、最大n人がTV会議に参加できるように、サブ画像をn個に設定していても、実際には参加者がnよりも少ない人数、例えば、(n−2)人である場合がある。このような場合、画像データ圧縮合成部42は、残りの2個のサブ画像Mn−1及びMnに対応する区分位置に、静止画像記憶部46からの適宜の静止画像(例えば、会議参加者不在であることを表す画像)を組み込む。このようにする代わりに、画像データ圧縮合成部42を、参加者数に応じて、各端末5に表示される1枚の画像M中のサブ画像の数(すなわち区分数)及び圧縮率を変更可能に構成してもよい。
【0032】
図7は、各端末5の各ディスプレイ49に表示される画像M(フレームデータF)の他の構成例を表す。
さらに、画像データ圧縮合成部42において、各端末5に表示される画像M中に、発言者サブ画像MSPを組み込むようにすることもできる。例えば、各端末5上の特定のキーを操作した参加者(販売者又は購入決定者)のみが発言権を得るように構成することができ、この場合、データ取得部21では、発言権を得るためのキー操作がされた端末を識別することにより、発言者を特定することができる。このようにする替わりに、データ取得部21において、音声検出を行うことにより、どの端末の参加者が発言者であるかを判定することもできる。複数の端末から音声データが送信された場合には、音声が最も大きいものを発言者として識別する。
【0033】
例えば、端末51の販売者が、発言している場合、好ましくは、発言者サブ画像MSPは、サブフレームデータFS1を拡大したサブフレームデータFSPである。なお、サブフレームデータFSPは、他のサブクレームデータFS1〜FSnとともに、画像圧縮合成部42内で合成される。好ましくは、発言者を特定するためのサブ画面M1の外縁にある画像SPに対応するサブフレームデータも、一緒に合成される。
【0034】
図7に示すように、各端末5の各ディスプレイ49は、画像Mに加えて、テキストチャット画像MCHを表示することもできる。テキストチャット画像MCHを表示する場合、サーバ2は更に、チャットサービスサーバとしての機能を備える必要があり、各端末5は更に、チャットプログラム48’を備える必要がある。
【0035】
[資料作成編集モード]
各端末5において、このモードが選択されると、該端末に商談用資料(例えば、▲1▼栄養補助食品に関する市場調査結果資料、▲2▼鼻洗浄器の詳細な構造説明資料、▲3▼購入決定者の店舗内でのテスト販売結果資料など))の作成編集画面(図示せず)が表示され、これにより資料の新規作成及び既存資料の改変が可能となる。この資料作成編集機能は、汎用の文書作成編集ソフトを用いることによって実現できる。作成された資料は、システムサーバ2内の資料記憶部27に記憶され、会議参加者が共通にアクセス可能となる。なお、販売者の端末51にのみ、この資料作成編集機能を備え、購入決定者の端末52〜5nは、この機能を省略することもできる。
【0036】
[プレゼンテーションモード]
各端末において、このモードが選択されると、資料記憶部27に記憶されている資料にアクセスして該資料を表示可能となる。資料を用いてTV会議でプレゼンテーションを行う場合、TV会議に参加しているすべての端末51〜5nに、サーバ2を介して該資料を提供し表示させる。
【0037】
この場合、プレセンタである端末(例えば、販売者の端末51)から資料データをサーバ2に送信し、サーバ2は、該プレセンタからの指示に従い、全てのユ端末5に対してプレゼンテーションがなされることを通知する。この通知は、各端末5のモニタ画面に表示され、該通知が表示された時点でプレゼンテーションモードに切り換え操作を行うことができる。
【0038】
なお、プレゼンテーション用の資料データとともに画像フレームデータF及び音声データも、データ送信部44から全ての端末51〜5nにマルチキャストされており、これにより、各参加者は、自分の端末をプレゼンテーションモードにするか又はユーザ画像表示モードにするかを、個別に選択することができる。
【0039】
本発明は、以上のように構成され、TV会議システムの端末5側のソフトで1次圧縮した画像データをシステムサーバで受信した後、該データを同期をとりつつ整理・調整する過程で2次圧縮をすることにより、複数の画像データを1つの画像に合成する方式を採用しているので、システムサーバ4から各端末5に向かうデータ量を低減することができる。よって、会議参加者が何百台と増加しても、データ量を比較的小さく(例えば、300kbps以下)安定化することができる。
【0040】
したがって、本発明によれば、高品質の画像・音声・プレゼンテーションのデータからのネットワーク負荷を大幅に低減させ、なおかつ一定負荷量に安定させて維持することができるTV会議システムを利用する画期的な営業支援システムを実現することができる。
【0041】
第2の実施形態
以下に、本発明の第2の実施形態について、図面を参照して説明する。なお、第2の実施形態は、インターネットTV会議システムを利用する契約行為を促進し、又は証明するための手段を、第1の実施形態に追加したものである。従って、追加した手段について、以下、詳細に述べることとする。
【0042】
[音声分析部71]
図8は、第2の実施形態に係るサーバ4の機能ブロック図を示す。図8に示すように、サーバ4は更に、音声分析部71を備える。音声分析部71は、TV会議に参加を許可された販売者及び購入決定者の音声分析結果データ(例えば、声紋データ)を予め記憶している。音声分析部71は、データ取得部41により取得された音声データを分析し、予め記憶された音声分析結果データに一致する音声データのみ、音声データ合成部43に供給する。このとき、音声分析部71は、予め記憶された音声分析結果データに一致する音声データに対応する画像フレームデータのみ、画像データ圧縮合成部42に供給するとともに、予め記憶された音声分析結果データに一致する音声データに対応する端末にのみ、合成された画像フレームデータ及び音声データを送信するように、データ送信部44に命令する。
【0043】
データ取得部41により取得された音声データを音声分析部71が分析するタイミングは、データ取得部41から各端末5への送信要求に応答して、各音声データが、最初に取得された時である。また、音声分析部71は、TV会議中、所定の間隔(例えば、30分毎)で、音声データを分析することもできる。或いは、音声分析部71は、TV会議中、常時、音声データを分析することもできる。
【0044】
このように、予め許可された参加者のみTV会議に参加することができるので、各参加者は、安心してインターネットTV会議システムを利用することが可能となる。
【0045】
[合成データ記憶部72]
サーバ4は更に、合成データ記憶部72を備える。合成データ記憶部72は、その後にデータ送信部44から送信される、画像データ圧縮合成部42及び音声データ合成部43で合成された画像フレームデータ及び音声データを記憶する。
【0046】
合成された画像フレームデータ及び音声データを合成データ記憶部72が記憶し始めるタイミングは、データ取得部41から各端末5への送信要求に応答して、何れか1の画像フレームデータが、最初に取得された時である。その後、合成データ記憶部72は、TV会議中、常時、合成された画像フレームデータ及び音声データを記憶する。TV会議の終了後、各端末5のユーザ画面モードが、すべて解除された時、合成データ記憶部72は、データの記憶を停止する。
【0047】
このように、TV会議における商談の内容を記憶することができるので、商談中に行われた契約行為を容易に証明することが可能となる。
また、端末5の中で、販売者の1台の端末(例えば、端末51)及び購入決定者の1台の端末(例えば、端末52)は、それぞれ記憶開始ボタン及び記憶停止ボタン(図示せず)を備えることもできる。この場合、販売者の端末(例えば、端末51)において、その端末51の第1記憶開始ボタンが、その端末51のユーザ(販売者)によって押されると、その端末51は、第1記憶開始信号を、インターネット1を介してサーバ4に送信する。同様に、購入決定者の端末(例えば、端末52)において、その端末52の第2記憶開始ボタンが、その端末52のユーザ(購入決定者の代表者)によって押されると、その端末52は、第2記憶開始信号を、インターネット1を介してサーバ4に送信する。これに対し、サーバ2の合成データ記憶部72は、第1又は第2記憶開始信号を受信した後、合成された画像フレームデータ及び音声データを記憶し始める。
【0048】
また、TV会議の途中又は終了後、販売者又は購入決定者の端末の何れか1の端末(例えば、端末52)において、その端末52の第2記憶停止ボタンが、その端末52のユーザ(購入決定者の代表者)によって押されると、その端末52は、第2記憶停止信号を、インターネット1を介してサーバ4に送信する。これに対し、サーバ2の合成データ記憶部72は、第1又は第2記憶停止信号(例えば、第2記憶停止信号)を受信した後、データの記憶し終了する。
【0049】
このように、記憶開始ボタンが押された時から、記憶停止ボタンが押された時まで、TV会議における商談の内容を記憶することができるので、データを記憶する容量を少なくすることができる。
【0050】
第3の実施形態
以下に、本発明の第3の実施形態について、図面を参照して説明する。なお、第3の実施形態は、第1の実施形態の利用方法を変更したものである。従って、変更した利用方法(変更した構成)について、以下、詳細に述べることとする。
【0051】
図9は、第3の実施形態に係る営業支援システム10の構成例の概略を示した図である。
第3の実施実施形態に係る営業支援システム10は、図9に示すように、インターネット3に接続可能なサーバ4、少なくとも1台の端末61、62、63、・・・、6m(以下、代表して表す場合には「端末6」で表す)、少なくとも2台以上の店舗内に取り付けられたカメラ71、72、73、・・・、7n(以下、代表して表す場合には「カメラ7」で表す)を備える。
【0052】
図9中のサーバ4は、データ取得部41と、画像データ圧縮合成部42と、データ送信部44と、を備え、図3に示すような、音声データ合成部43と、資料管理部45と、静止画像記憶部46と、資料記憶部47と、を備える必要がない。
【0053】
また、図9中の各端末6(例えば、パソコン)は、店舗内の画像を表示する「店舗内画像表示モード」を実行するためのプログラムモジュール(PM)48を予め記憶しており、上述の「ユーザ画像表示モード」、「資料作成編集モード」及び「プレゼンテーションモード」を実行するためのプログラムモジュール(PM)48を予め記憶する必要がない。また、各端末6は、サーバ4のデータ取得部41及びデータ送信部24との間で、適宜のプロトコルでデータ通信を行うが、そのためのプログラム(P)48’も、各端末5内に予め記憶されている。なお、各端末6は、ディスプレイ49及びビデオコーディック49’を備え、カメラ、マイク及びスピーカ49、並びに、音声コーディック49’を備える必要がない。
【0054】
また、図9中の店舗内の各カメラ7は、ビデオコーディック49’を備えている。好ましくは、各カメラ7は、店舗内にある商品が並んだ棚、店舗内に入店しようとする顧客などを、捕らえる様に、配置される。なお、同一店舗内に、複数のカメラを配置することもできる。
【0055】
以下に、端末61〜6mにおいて実行される「店舗内画像表示モード」の動作について説明する。
[店舗内画像表示モード]
各端末6において店舗内画面モードが選択されると、サーバ4のデータ取得部41は、店舗内に設置されるカメラ71〜7nから、例えばカメラ71〜7nの順番で、画像フレームデータを取り込む。
【0056】
すなわち、データ取得部41は、まずカメラ71に対して送信要求(画像データを送信するよう指示するための要求)を出力する。すると、それに応答して、カメラ71が、現在撮影している画像フレームデータF1(店舗内の画像:商品棚及びその周辺の顧客、店舗内に入店しようとする入り口付近の顧客)を、データ取得部41に返送する。同様にして、データ取得部41が、カメラ72〜7nに対して送信要求を順次送信すると、カメラ72〜7nは、現在の画像フレームデータF2〜Fnを、データ取得部41に返送する。データ取得部41は、このモードの動作中、このような画像フレームデータの取得動作を反復実行する。
【0057】
データ取得部41により取得された画像フレームデータF1〜Fnは、取得順に画像データ圧縮合成部42に供給される。
サーバ4の画像データ圧縮合成部42は、画像フレームデータF1〜Fnが入力されると、該データをそれぞれ圧縮する。画像データの圧縮は、適宜の既知の圧縮方法を採用可能であるが、各画像フレームデータを1/n以下に圧縮する必要がある。画像データ圧縮合成部42には、圧縮された画像フレームデータF1〜Fnを、それぞれサブフレームデータFs1〜Fsnとして、これらサブフレームデータを「1つ」の画像フレームデータFのどこに組み込むかが、予め設定されている。合成された画像フレームデータFは、データ送信部44に供給される。
【0058】
データ送信部44は、画像フレームデータFを画像データ圧縮合成部4243から受け取ると、これらを映像監視の参加者の端末61〜6mすべてにマルチキャストする。
【0059】
端末61〜6nにマルチキャストされる画像フレームデータFは、1枚の画像フレームデータであるので、各端末に複数の画像フレームデータをマルチキャストする従来例のインターネットTV会議システムを変形したインターネット映像監視システムに対比して、送信される画像データの量が低減されており、したがって、インターネット1、サーバ4及び各端末7の負荷が低減される。
【0060】
なお、第3の実施形態に係るサーバ4は、実施の形態2に係る合成データ記憶部72のように、画像フレームデータFを記憶することもできる。
本発明は、以上のように構成され、各端末6のユーザは、店舗内における顧客の行動(導線、購入実績)データをリアルタイムに把握し、分析することが可能となり、店舗内の商品の最適購入数、モデル棚割などを提案することができる。
【0061】
また、入店した顧客を認識することが可能となり、顧客に適する広告を作成することができる。
【図面の簡単な説明】
【図1】従来のインターネットTV会議システムの構成例の概略を示した図である。
【図2】本発明の営業支援システム10の構成例の概略を示した図である。
【図3】図2中のサーバ4の機能ブロック図を示す。
【図4】図2中の端末5の概略的な機能ブロック図を示す。
【図5】各端末5の各ディスプレイ49に表示される画像M(フレームデータF)の構成例を表す。
【図6】各端末5の各ディスプレイ49に表示される画像M(フレームデータF)のもう1つの構成例を表す。
【図7】各端末5の各ディスプレイ49に表示される画像M(フレームデータF)の他の構成例を表す。
【図8】第2の実施形態に係るサーバ4の機能ブロック図を示す。
【図9】第3の実施形態に係る営業支援システム10の構成例の概略を示した図である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a sales support system, and more particularly, to a sales support system that utilizes an Internet TV conference system that communicates a plurality of voices and images.
[0002]
BACKGROUND OF THE INVENTION
Generally, when a company develops a certain product or service (hereinafter simply referred to as "product"), the person who sells the product (hereinafter simply referred to as "seller") determines whether or not to purchase the product. In some cases, the merchandise is explained to a deciding person (hereinafter, simply referred to as a "purchase deciding person"). In this case, it is not uncommon for the seller to go to the place where the purchase decision maker is located and explain the product.
[0003]
Therefore, as the number of purchase decision-makers increases, the number of times that the seller goes to each place also increases, and as a result, there is a problem that the burden on the seller increases. In particular, when there are a plurality of purchase decision makers in the same company or the same group, the seller needs to go to each place, and the above problem is a more serious problem. Such situations include, for example, a case in which a pharmaceutical company has developed a new cedar pollen countermeasure product (for example, (1) a dietary supplement containing perilla concentrated extract and bean tea extract; Development of a nasal irrigator that uses a scent-based cleaning fluid), the seller of the company must go to multiple pharmacy stores within the same company and individually explain the same product is there.
[0004]
In such a situation, it is conceivable to use a conventional Internet TV conference system. That is, if it is possible to communicate all the voices and images between one seller and a plurality of purchase decision makers, the seller will not need to go to a plurality of places.
[0005]
[Problems to be solved by the invention]
FIG. 1 is a diagram schematically showing a configuration example of a conventional Internet TV conference system. As shown in FIG. 1, when a conventional Internet TV conference system is used, when the total number of sellers and a plurality of purchase decision makers is n, one personal computer (for example, personal computer 31) is A set of voices and images (eg, “F1” in the figure) of the owner is transmitted to the server 2 via the Internet 1, while n sets of voices and images (“F1”) of all the owners including the owner are transmitted. ... Fn ”) from the server 2. That is, each of the personal computer terminals 31, 32, 33,..., 3n needs to receive n sets of voices and images (“F1 to Fn”) from the server 2; Each had to have a large capacity communication infrastructure (eg, FTTH). Providing such a large-capacity communication infrastructure involves enormous costs, and as a result, it is impractical to explain a product using a conventional Internet TV conference system.
[0006]
On the other hand, in order to explain a product while using the current popular communication infrastructure (for example, ADSL12M), it is conceivable to reduce the size of one set of voice and image. However, since each of the personal computers 3 must receive n sets of voices and images (“F1 to Fn”), the personal computers 3 cannot communicate in real time the images of the seller or the purchase decision maker. Could not explain the product.
[0007]
Therefore, an object of the present invention is to provide a system capable of communicating images of a seller or a purchase decision maker in real time while using a current popular communication infrastructure.
[0008]
On the other hand, if the present invention is used, images of sellers or purchasers can be communicated in real time, and as a result, it is possible to explain products using the Internet TV conference system. Therefore, after the product explanation, a negotiation can be concluded, and it is possible to make a contract using the Internet TV conference system.
[0009]
Therefore, another object of the present invention is to provide a system capable of promoting or proving a contract using the Internet TV conference system.
Other objects of the present invention will become apparent by referring to embodiments of the invention described below.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, a sales support system of the present invention comprises at least three or more TV conference terminals connected to the Internet and a server connected to the Internet. In the sales support system using the TV conference system for performing the TV conference between the above users,
The server is
From each terminal, data acquisition means for acquiring image frame data and audio data compressed in each terminal,
By arranging and adjusting the acquired plurality of image frame data while compressing and synchronizing, the acquired plurality of image frame data is assigned to a plurality of divisions obtained by dividing one image frame, Image data compression / synthesis means for synthesizing into one image frame data;
Means for synthesizing the plurality of acquired voice data;
Data distribution means for multicasting the synthesized image frame data and audio data to each of the user terminals;
With
At least one device is a merchant device,
At least two terminals are terminals for purchase decision makers.
[0011]
In a case where at least one of the plurality of terminals for the purchase decision maker does not have a camera for a TV conference, preferably,
The TV conference system server further includes storage means for storing a still image,
The image data compression / synthesis unit is configured to read out a still image from the storage unit and assign it to a section in one image frame corresponding to a user terminal without a camera.
[0012]
When the number of terminals for purchase decision-makers participating in the TV conference is less than the number of the plurality of sections of one image frame, preferably,
The image data compression / synthesis unit is further configured to read and assign a still image from the storage unit to the surplus section.
[0013]
More preferably, the data acquisition means further comprises means for detecting the largest volume of audio data among the acquired audio data, or a key operation signal representing the speaker from the terminal,
The image data compression / synthesis unit further processes the image frame data from the terminal corresponding to the audio data with the highest detected volume, or the terminal from which the key operation signal representing the detected speaker is transmitted. The data image is configured to be enlarged and compared to an image from another terminal and assigned to one section.
[0014]
In addition, the server also:
The voice analysis result data of the seller and the purchase decision maker who are permitted to participate in the TV conference are stored in advance, and the obtained voice data is analyzed to determine whether or not the voice analysis result data matches the previously stored voice analysis result data. Means for determining,
The means for synthesizing a plurality of voice data synthesizes only voice data that matches the voice analysis result data,
It is preferable that the image data compression / synthesis unit is configured to compress only image frame data corresponding to the matching audio data and synthesize the image data into one image frame data.
[0015]
Preferably, the server further includes a unit for storing the combined image frame data and audio data.
Further, in order to achieve the above object, the sales support system of the present invention includes at least one or more video monitoring terminals connected to the Internet, at least two or more cameras connected to the Internet, In a sales support system comprising a connected server and using a video monitoring system for monitoring video from at least two or more cameras via the Internet,
The server is
Data acquisition means for acquiring image frame data from each camera;
An image to be combined with one image frame data by compressing the obtained plurality of image frame data and assigning the plurality of compressed image frame data to a plurality of sections obtained by dividing one image frame. Data compression / synthesis means;
Data distribution means for multicasting the synthesized image frame data to the terminal;
With
A camera is located in the store with the product.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
( First embodiment )
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
[0017]
FIG. 2 is a diagram schematically showing a configuration example of the sales support system 10 of the present invention, FIG. 3 is a functional block diagram of the server 4 in FIG. 2, and FIG. 4 is a terminal 5 in FIG. FIG. 2 shows a schematic functional block diagram of FIG.
[0018]
As shown in FIG. 2, the sales support system 10 of the present invention includes a server 4 connectable to the Internet 3 and at least three terminals 51, 52, 53,. Is represented by “terminal 5”).
[0019]
As shown in FIG. 3, the server 4 in FIG. 2 includes a data acquisition unit 41, an image data compression and synthesis unit 42, an audio data synthesis unit 43, a data transmission unit 44, a material management unit 45, a still image A storage unit 46 and a material storage unit 47 are provided.
[0020]
Also, as shown in FIG. 4, each terminal 5 (for example, a personal computer) in FIG. 2 stores a program module (PM) 48 for executing various modes in advance. The modes include, for example, a “user image display mode” for displaying images of TV conference participants (at least one sales person and at least two purchase decision makers), and a “material” for creating and editing conference materials. A "creation / edit mode" and a "presentation mode" for displaying conference materials. In addition, each terminal 5 performs data communication with the data acquisition unit 41 and the data transmission unit 24 of the server 4 using an appropriate protocol. A program (P) 48 ′ for this is also stored in each terminal 5 in advance. It is remembered. Further, each terminal 5 performs data compression on image data and audio data by an appropriate compression method, and a program (P) 48 ′ for that purpose is stored in each terminal 5 in advance. Each terminal 5 includes a camera, a microphone, a speaker and a display 49, and a video codec and an audio codec 49 '.
[0021]
Hereinafter, operations in the “user image display mode”, the “material creation / editing mode”, and the “presentation mode” executed in the terminals 51 to 5n will be described.
[0022]
[User image display mode]
When the user screen mode is selected in each terminal 5, the data acquisition unit 41 of the server 4 compresses the data in each terminal 5 from the terminals 51 to 5n participating in the Internet TV conference, for example, in the order of the terminals 51 to 5n. The image frame data (“F1” to “Fn” in FIG. 2) is captured.
[0023]
That is, the data acquisition unit 41 first outputs a transmission request (a request to instruct to transmit image data and accompanying audio data) to the terminal 51 (for example, the terminal is owned by a business operator). . Then, in response, the terminal 51 transmits the image frame data F1 (including at least the face of the business person) currently captured and compressed by the camera 49 and the voice data (commercial Is returned to the data acquisition unit 41. Similarly, when the data acquisition unit 41 sequentially transmits transmission requests to the terminals 52 to 5n (for example, these terminals are owned by the purchase decision maker), the terminals 52 to 5n transmit the current compressed image The frame data F2 to Fn (including at least the face of the purchase decision maker) and the voice data (the voice of the purchase decision maker) are returned to the data acquisition unit 41. The data acquisition unit 41 repeatedly performs such an operation of acquiring image frame data during a TV conference.
[0024]
The image frame data F1 to Fn acquired by the data acquisition unit 41 are synchronously supplied to the image data compression / synthesis unit 42, and the audio data acquired by the data acquisition unit 41 is synchronized with the audio data It is supplied to the synthesizing unit 43.
[0025]
Upon receiving the image frame data F1 to Fn, the image data compression / combination unit 42 of the server 4 compresses the data. For the compression of the image data, an appropriate known compression method can be adopted, but it is necessary to compress each image frame data to 1 / n or less. The image data compression / synthesizing unit 42 sets the compressed image frame data F1 to Fn as sub-frame data Fs1 to Fsn, respectively, where the sub-frame data is to be incorporated into “one” image frame data F in advance. Is set.
[0026]
FIG. 5 shows a configuration example of an image M (frame data F) displayed on each display 49 of each terminal 5. As shown in FIG. 5, for example, the sub-frame data strings (Fs1 to Fsn) are so arranged that each of the sub-images M1 to Mn based on the sub-frame data Fs1 to Fsn is assigned to each of the sections obtained by dividing the screen M into n pieces. ) Is rearranged. Thus, the obtained image frame data F1 to Fn are combined into one image frame data F. The synthesized image frame data F is supplied to the data transmission unit 44.
[0027]
The audio data synthesizing unit 43 receives audio data transmitted from the terminals 51 to 5n accompanying the image frame data F1 to Fn from the data acquisition unit 41, synthesizes them (compresses them if necessary, and compresses them). ) Supply the data to the data transmission unit 44.
[0028]
When receiving the image frame data F and the audio data from the image data compression / synthesis unit 42 and the audio data synthesis unit 43, the data transmission unit 44 multicasts them to all of the terminals 51 to 5n of the TV conference participants. As a result, the sub-images M1 to Mn corresponding to the sub-frame data Fs1 to Fsn are displayed on one screen M on each terminal 5 as shown in FIG.
[0029]
Since the image frame data F to be multicast to the terminals 51 to 5n is one image frame data by the rearranging / adjustment process on the server side, the conventional Internet TV that multicasts a plurality of image frame data to each terminal. As compared with the conference system, the amount of image data to be transmitted is reduced, and thus the load on the Internet 1, the server 4, and each terminal 5 is reduced. Even if the number of participating terminals increases, the method does not exceed a certain amount of image data, so that the load on the Internet is reduced and the image data frames F and The data communication speed of the audio data is set to, for example, 300 kbps or less. This reduction in the amount of image data increases as the number of terminals 5 increases. Therefore, it is possible to realize a TV conference system with stable voice and image quality even in a simultaneous conference of hundreds of people.
[0030]
FIG. 6 shows another configuration example of the image M (frame data F) displayed on each display 49 of each terminal 5.
In the above description, an example has been described in which all participants of the TV conference return image data and audio data to the data acquisition unit 41 of the system server 2. However, even if the purchase decision-maker does not have a camera, It is possible to participate in a TV conference only by voice. For example, when the terminal 53 is not provided with the camera 49, the subframe data FsNC corresponding to the subframe data Fs3 of the synthesized image frame data F includes an appropriate still image stored in the still image storage unit 46 in advance. An image (for example, a still image of the owner of the terminal 46, an indication that there is no camera, etc.) is assigned as the sub-image M3. When a terminal without a camera participates in the TV conference, the image data compression / combination unit 42 automatically allocates the still image from the still image storage unit 46 to be arranged in the last section (the position of the sub-image Mn). You can also.
[0031]
Also, for example, even if the number of sub-images is set to n so that a maximum of n people can participate in the TV conference, the number of participants is actually smaller than n, for example, (n-2). There are cases. In such a case, the image data compression / synthesis unit 42 stores an appropriate still image from the still image storage unit 46 (for example, in the absence of a conference participant) in the divided position corresponding to the remaining two sub-images Mn-1 and Mn. ). Instead, the image data compression / synthesis unit 42 changes the number of sub-images (ie, the number of divisions) and the compression ratio in one image M displayed on each terminal 5 according to the number of participants. You may comprise so that it is possible.
[0032]
FIG. 7 shows another configuration example of the image M (frame data F) displayed on each display 49 of each terminal 5.
Further, the image data compression / synthesis unit 42 may incorporate the speaker sub-image MSP into the image M displayed on each terminal 5. For example, it is possible to configure so that only the participant (seller or purchase decider) who operates a specific key on each terminal 5 gets the floor, and in this case, the data acquisition unit 21 obtains the floor. By identifying the terminal on which the key operation has been performed, the speaker can be specified. Instead of this, the data acquisition unit 21 can detect which terminal participant is the speaker by performing voice detection. When voice data is transmitted from a plurality of terminals, the one with the highest voice is identified as the speaker.
[0033]
For example, when the seller of the terminal 51 is speaking, preferably, the speaker sub-image MSP is the sub-frame data FSP obtained by enlarging the sub-frame data FS1. The subframe data FSP is synthesized in the image compression synthesizing unit 42 together with the other subclaim data FS1 to FSn. Preferably, the sub-frame data corresponding to the image SP at the outer edge of the sub-screen M1 for specifying the speaker is also synthesized together.
[0034]
As shown in FIG. 7, each display 49 of each terminal 5 can also display a text chat image MCH in addition to the image M. When displaying the text chat image MCH, the server 2 needs to further have a function as a chat service server, and each terminal 5 needs to further have a chat program 48 '.
[0035]
[Material editing mode]
When this mode is selected at each terminal 5, the terminal provides the terminal with business negotiation materials (for example, (1) materials for market research results on dietary supplements, (2) detailed structure explanation materials for nasal irrigators, (3)). A creation / edit screen (not shown) of a purchase decision maker's in-store test sales result material) is displayed, thereby enabling new creation of materials and modification of existing materials. This material creation and editing function can be realized by using general-purpose document creation and editing software. The created material is stored in the material storage unit 27 in the system server 2 and is commonly accessible by the conference participants. Note that only the seller's terminal 51 is provided with this material creation / editing function, and the purchase determinator's terminals 52 to 5n may omit this function.
[0036]
[Presentation mode]
When this mode is selected in each terminal, it is possible to access the material stored in the material storage unit 27 and display the material. When a presentation is made in a TV conference using materials, the materials are provided and displayed via the server 2 to all the terminals 51 to 5n participating in the TV conference.
[0037]
In this case, the material data is transmitted from the terminal (for example, the terminal 51 of the seller) which is a pre-center to the server 2, and the server 2 makes a presentation to all the terminals 5 in accordance with the instruction from the pre-center. Notify. This notification is displayed on the monitor screen of each terminal 5, and when the notification is displayed, the operation can be switched to the presentation mode.
[0038]
In addition, the image frame data F and the audio data together with the material data for presentation are also multicast from the data transmission unit 44 to all the terminals 51 to 5n, whereby each participant puts his / her own terminal into the presentation mode. It is possible to individually select whether to enter the user image display mode.
[0039]
The present invention is configured as described above. After receiving image data that has been primarily compressed by software on the terminal 5 side of the TV conference system at the system server, the data is synchronized and organized and adjusted in a secondary process. Since a method is adopted in which a plurality of image data are combined into one image by performing compression, the amount of data traveling from the system server 4 to each terminal 5 can be reduced. Therefore, even if the number of conference participants increases to hundreds, the data amount can be stabilized relatively small (for example, 300 kbps or less).
[0040]
Therefore, according to the present invention, an epoch-making use of a TV conference system that can greatly reduce the network load from high-quality image / audio / presentation data and stably maintain a constant load amount. A simple sales support system can be realized.
[0041]
( Second embodiment )
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. In the second embodiment, means for promoting or proving a contract using the Internet TV conference system is added to the first embodiment. Therefore, the added means will be described in detail below.
[0042]
[Speech analysis unit 71]
FIG. 8 shows a functional block diagram of the server 4 according to the second embodiment. As shown in FIG. 8, the server 4 further includes a voice analysis unit 71. The voice analysis unit 71 stores voice analysis result data (for example, voiceprint data) of sellers and purchase decision makers who are allowed to participate in the TV conference in advance. The voice analysis unit 71 analyzes the voice data acquired by the data acquisition unit 41, and supplies only the voice data that matches the voice analysis result data stored in advance to the voice data synthesis unit 43. At this time, the audio analysis unit 71 supplies only the image frame data corresponding to the audio data that matches the previously stored audio analysis result data to the image data compression / synthesis unit 42, and The data transmission unit 44 is instructed to transmit the synthesized image frame data and audio data only to the terminal corresponding to the matching audio data.
[0043]
The timing at which the voice analysis unit 71 analyzes the voice data acquired by the data acquisition unit 41 is the time when each voice data is first acquired in response to a transmission request from the data acquisition unit 41 to each terminal 5. is there. Further, the voice analysis unit 71 can also analyze voice data at predetermined intervals (for example, every 30 minutes) during the TV conference. Alternatively, the audio analysis unit 71 can always analyze audio data during a TV conference.
[0044]
In this way, only the participants who have been permitted in advance can participate in the TV conference, so that each participant can use the Internet TV conference system with confidence.
[0045]
[Synthesized data storage unit 72]
The server 4 further includes a combined data storage unit 72. The composite data storage unit 72 stores the image frame data and the audio data that are subsequently transmitted from the data transmission unit 44 and combined by the image data compression and combination unit 42 and the audio data combination unit 43.
[0046]
The timing at which the synthesized data storage unit 72 starts to store the synthesized image frame data and audio data is such that, in response to a transmission request from the data acquisition unit 41 to each terminal 5, any one of the image frame data It is when it was obtained. Thereafter, the combined data storage unit 72 always stores the combined image frame data and audio data during the TV conference. After the end of the TV conference, when all the user screen modes of the terminals 5 are released, the combined data storage unit 72 stops storing data.
[0047]
As described above, since the contents of the negotiation in the TV conference can be stored, it is possible to easily prove the contract act performed during the negotiation.
Further, among the terminals 5, one terminal of the seller (for example, the terminal 51) and one terminal of the purchase decision maker (for example, the terminal 52) are provided with a storage start button and a storage stop button (not shown), respectively. ) Can also be provided. In this case, when the first storage start button of the terminal 51 is pressed by the user (seller) of the terminal 51 at the terminal of the seller (for example, the terminal 51), the terminal 51 receives the first storage start signal. Is transmitted to the server 4 via the Internet 1. Similarly, when the second storage start button of the terminal 52 is pressed by the user (representative of the purchaser) of the terminal 52 at the terminal of the purchaser (for example, the terminal 52), the terminal 52 becomes: A second storage start signal is transmitted to the server 4 via the Internet 1. On the other hand, after receiving the first or second storage start signal, the combined data storage unit 72 of the server 2 starts storing the combined image frame data and audio data.
[0048]
Further, during or after the TV conference, at one of the terminals of the seller or the purchase decision maker (for example, the terminal 52), the second memory stop button of the terminal 52 is pressed by the user of the terminal 52 (the purchaser). When pressed by the representative of the decider, the terminal 52 transmits a second memory stop signal to the server 4 via the Internet 1. On the other hand, after receiving the first or second storage stop signal (for example, the second storage stop signal), the combined data storage unit 72 of the server 2 stores the data and ends.
[0049]
As described above, since the contents of the negotiation in the TV conference can be stored from the time the storage start button is pressed to the time the storage stop button is pressed, the capacity for storing data can be reduced.
[0050]
( Third embodiment )
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings. Note that the third embodiment is a modification of the method of using the first embodiment. Therefore, the changed use method (changed configuration) will be described in detail below.
[0051]
FIG. 9 is a diagram schematically illustrating a configuration example of a sales support system 10 according to the third embodiment.
As shown in FIG. 9, the sales support system 10 according to the third embodiment includes a server 4 connectable to the Internet 3, at least one terminal 61, 62, 63,. , 7n attached to at least two or more stores (hereinafter referred to as "camera 7"").
[0052]
9 includes a data acquisition unit 41, an image data compression / synthesis unit 42, and a data transmission unit 44. As shown in FIG. It is not necessary to provide the still image storage unit 46 and the material storage unit 47.
[0053]
Further, each terminal 6 (for example, a personal computer) in FIG. 9 stores in advance a program module (PM) 48 for executing an “in-store image display mode” for displaying an image in a store, and There is no need to previously store the program module (PM) 48 for executing the “user image display mode”, the “material creation / editing mode”, and the “presentation mode”. In addition, each terminal 6 performs data communication with the data acquisition unit 41 and the data transmission unit 24 of the server 4 using an appropriate protocol, and a program (P) 48 ′ for that is also stored in each terminal 5 in advance. It is remembered. Each terminal 6 includes a display 49 and a video codec 49 ', and does not need to include a camera, a microphone and a speaker 49, and an audio codec 49'.
[0054]
Each camera 7 in the store in FIG. 9 includes a video codec 49 ′. Preferably, each camera 7 is arranged so as to capture a shelf in the store where products are arranged, a customer trying to enter the store, and the like. Note that a plurality of cameras can be arranged in the same store.
[0055]
Hereinafter, the operation of the “in-store image display mode” executed in the terminals 61 to 6m will be described.
[In-store image display mode]
When the in-store screen mode is selected in each terminal 6, the data acquisition unit 41 of the server 4 captures image frame data from the cameras 71 to 7n installed in the store, for example, in the order of the cameras 71 to 7n.
[0056]
That is, the data acquisition unit 41 first outputs a transmission request (a request for instructing transmission of image data) to the camera 71. Then, in response, the camera 71 sets the image frame data F1 (the image in the store: the customer near the merchandise shelf and its surroundings, the customer near the entrance who wants to enter the store) in the data. It is returned to the acquisition unit 41. Similarly, when the data acquisition unit 41 sequentially transmits transmission requests to the cameras 72 to 7n, the cameras 72 to 7n return the current image frame data F2 to Fn to the data acquisition unit 41. The data acquisition unit 41 repeatedly performs such an operation of acquiring image frame data during the operation in this mode.
[0057]
The image frame data F1 to Fn acquired by the data acquisition unit 41 are supplied to the image data compression / combination unit 42 in the order of acquisition.
Upon receiving the image frame data F1 to Fn, the image data compression / combination unit 42 of the server 4 compresses the data. For the compression of the image data, an appropriate known compression method can be adopted, but it is necessary to compress each image frame data to 1 / n or less. The image data compression / synthesizing unit 42 sets the compressed image frame data F1 to Fn as sub-frame data Fs1 to Fsn, respectively, where the sub-frame data is to be incorporated into “one” image frame data F in advance. Is set. The synthesized image frame data F is supplied to the data transmission unit 44.
[0058]
Upon receiving the image frame data F from the image data compression / synthesis unit 4243, the data transmission unit 44 multicasts them to all of the terminals 61 to 6m of the video monitoring participants.
[0059]
Since the image frame data F to be multicast to the terminals 61 to 6n is one image frame data, an Internet video surveillance system modified from the conventional Internet TV conference system which multicasts a plurality of image frame data to each terminal is used. In contrast, the amount of image data to be transmitted is reduced, and thus the loads on the Internet 1, the server 4, and each terminal 7 are reduced.
[0060]
Note that the server 4 according to the third embodiment can also store the image frame data F like the combined data storage unit 72 according to the second embodiment.
The present invention is configured as described above, and the user of each terminal 6 can grasp and analyze in real time the behavior (leading wire, purchase result) data of the customer in the store, and can optimize the product in the store. The number of purchases, model shelving, etc. can be proposed.
[0061]
Further, it is possible to recognize a customer who has entered the store, and it is possible to create an advertisement suitable for the customer.
[Brief description of the drawings]
FIG. 1 is a diagram schematically illustrating a configuration example of a conventional Internet TV conference system.
FIG. 2 is a diagram schematically illustrating a configuration example of a sales support system 10 of the present invention.
FIG. 3 shows a functional block diagram of a server 4 in FIG.
FIG. 4 is a schematic functional block diagram of a terminal 5 in FIG. 2;
5 shows a configuration example of an image M (frame data F) displayed on each display 49 of each terminal 5. FIG.
6 shows another configuration example of an image M (frame data F) displayed on each display 49 of each terminal 5. FIG.
FIG. 7 shows another configuration example of an image M (frame data F) displayed on each display 49 of each terminal 5.
FIG. 8 is a functional block diagram of a server 4 according to the second embodiment.
FIG. 9 is a diagram schematically illustrating a configuration example of a sales support system 10 according to a third embodiment.

Claims (8)

インターネットに接続された少なくとも3台以上のTV会議用の端末と、インターネットに接続されたサーバとからなり、インターネットを介して少なくとも3人以上のユーザ間でTV会議を行うためのTV会議システムを利用する営業支援システムおいて、
サーバは、
各端末から、各端末において圧縮された画像フレームデータ及び音声データを取得するデータ取得手段と、
取得された複数の画像フレームデータを圧縮しかつ同期をとりつつ整理調整することにより、取得された複数の画像フレームデータを、1つの画像フレームを分割することによって得られる複数の区分に割り当てて、1つの画像フレームデータに合成する画像データ圧縮合成手段と、
取得された複数の音声データを合成する手段と、
合成された画像フレームデータ及び音声データをユーザ端末のそれぞれにマルチキャストするデータ配信手段と
を備え、
少なくとも1台の端末が、販売者用の端末であり、
少なくとも2台の端末が、購入決定者用の端末である
ことを特徴とする営業支援システム。
A TV conference system, comprising at least three TV conference terminals connected to the Internet and a server connected to the Internet, for performing a TV conference among at least three users via the Internet is used. Sales support system,
The server is
From each terminal, data acquisition means for acquiring image frame data and audio data compressed in each terminal,
By arranging and adjusting the acquired plurality of image frame data while compressing and synchronizing, the acquired plurality of image frame data is assigned to a plurality of divisions obtained by dividing one image frame, Image data compression / synthesis means for synthesizing into one image frame data;
Means for synthesizing the plurality of acquired voice data;
Data distribution means for multicasting the synthesized image frame data and audio data to each of the user terminals,
At least one device is a merchant device,
A sales support system, wherein at least two terminals are terminals for purchase decision makers.
請求項1記載の営業支援システムにおいて、
購入決定者用の複数の端末の内の少なくとも1つの端末は、TV会議用のカメラを備えておらず、
TV会議システムサーバはさらに、静止画像を記憶した記憶手段を備え、
画像データ圧縮合成手段は、1つの画像フレーム中のカメラを具備していないユーザ端末に対応する区分に、記憶手段から静止画像を読み出して割り当てるよう構成されている
ことを特徴とする営業支援システム。
In the sales support system according to claim 1,
At least one of the plurality of terminals for the purchase decision maker does not have a camera for the TV conference,
The TV conference system server further includes storage means for storing a still image,
A sales support system, wherein the image data compression / synthesis unit is configured to read out a still image from the storage unit and assign it to a section corresponding to a user terminal having no camera in one image frame.
請求項2記載の営業支援システムにおいて、画像データ圧縮合成手段はさらに、TV会議に参加する購入決定者用の端末の数が1つの画像フレームの複数の区分の数に満たない場合に、余剰の区分に、記憶部から静止画像を読み出して割り当てるよう構成されていることを特徴とする営業支援システム。3. The sales support system according to claim 2, wherein the image data compression / synthesis unit further comprises a surplus when the number of terminals for purchase decision-makers participating in the TV conference is less than the number of sections of one image frame. A sales support system, wherein a still image is read from a storage unit and assigned to a section. 請求項1〜3いずれかに記載の営業支援システムにおいて、
データ取得手段はさらに、取得された音声データの内の最も音量が大きい音声データを検出する手段を備え、
画像データ圧縮合成手段はさらに、検出された音量が最も大きい音声データに対応する端末からの画像フレームデータを処理して、該データの画像が他の端末からの画像に対比して拡大して1つの区分に割り当てるよう構成されている
ことを特徴とする営業支援システム。
In the sales support system according to any one of claims 1 to 3,
The data acquisition means further comprises means for detecting the loudest audio data among the acquired audio data,
The image data compression / synthesis unit further processes the image frame data from the terminal corresponding to the detected audio data having the largest volume, and enlarges the image of the data by 1 in comparison with the image from another terminal. A sales support system configured to be assigned to one of the divisions.
請求項1〜3いずれかに記載の営業支援システムにおいて、
データ取得手段はさらに、端末から発言者を表すキー操作信号を検出する手段を備え、
画像データ圧縮合成手段はさらに、検出された発言者を表すキー操作信号の送信元の端末からの画像フレームデータを処理して、該データの画像が他の端末からの画像に対比して拡大して1つの区分に割り当てるよう構成されている
ことを特徴とする営業支援システム。
In the sales support system according to any one of claims 1 to 3,
The data acquisition means further includes means for detecting a key operation signal representing the speaker from the terminal,
The image data compression / synthesis unit further processes the image frame data from the terminal that transmitted the key operation signal representing the detected speaker, and enlarges the image of the data in comparison with the image from another terminal. A sales support system characterized in that the sales support system is configured to allocate the information to one section.
請求項1〜5いずれかに記載の営業支援システムにおいて、サーバはさらに、
TV会議に参加を許可された販売者及び購入決定者の音声分析結果データを予め記憶しており、取得された音声データを分析し、予め記憶された音声分析結果データに一致するか否かを判定する手段を備え、
複数の音声データを合成する手段は、音声分析結果データに一致する音声データのみ合成し、
画像データ圧縮合成手段は、一致する音声データに対応する画像フレームデータのみ圧縮し、1つの画像フレームデータに合成するよう構成されている
ことを特徴とする営業支援システム。
The sales support system according to any one of claims 1 to 5, wherein the server further comprises:
The voice analysis result data of the seller and the purchase decision maker who are permitted to participate in the TV conference are stored in advance, and the obtained voice data is analyzed to determine whether or not the voice analysis result data matches the previously stored voice analysis result data. Means for determining,
The means for synthesizing a plurality of voice data synthesizes only voice data that matches the voice analysis result data,
A sales support system characterized in that the image data compression / synthesis means is configured to compress only image frame data corresponding to the matching audio data and synthesize the image data into one image frame data.
請求項1〜6いずれかに記載の営業支援システムにおいて、サーバはさらに、合成された画像フレームデータ及び音声データを記憶する手段を備えることを特徴とする営業支援システム。The sales support system according to any one of claims 1 to 6, wherein the server further comprises means for storing the combined image frame data and audio data. インターネットに接続された少なくとも1台以上の映像監視用の端末と、インターネットに接続された少なくとも2台以上のカメラと、インターネットに接続されたサーバとからなり、インターネットを介して少なくとも2台以上のカメラからの映像監視を行うための映像監視システムを利用する営業支援システムおいて、
サーバは、
各カメラから画像フレームデータを取得するデータ取得手段と、
取得された複数の画像フレームデータを圧縮し、圧縮された複数の画像フレームデータを、1つの画像フレームを分割することによって得られる複数の区分に割り当てることにより、1つの画像フレームデータに合成する画像データ圧縮合成手段と、
合成された画像フレームデータを端末にマルチキャストするデータ配信手段と
を備え、
カメラが、商品を備える店舗内に配置されている
ことを特徴とする営業支援システム。
At least one or more video monitoring terminals connected to the Internet, at least two or more cameras connected to the Internet, and at least two or more cameras connected to the Internet via the Internet In a sales support system that uses a video surveillance system to monitor video from
The server is
Data acquisition means for acquiring image frame data from each camera;
An image to be combined with one image frame data by compressing the obtained plurality of image frame data and assigning the plurality of compressed image frame data to a plurality of sections obtained by dividing one image frame. Data compression / synthesis means;
Data distribution means for multicasting the synthesized image frame data to the terminal,
A sales support system, wherein a camera is arranged in a store having a product.
JP2003061714A 2003-03-07 2003-03-07 Business support system Pending JP2004274349A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003061714A JP2004274349A (en) 2003-03-07 2003-03-07 Business support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003061714A JP2004274349A (en) 2003-03-07 2003-03-07 Business support system

Publications (1)

Publication Number Publication Date
JP2004274349A true JP2004274349A (en) 2004-09-30

Family

ID=33123865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003061714A Pending JP2004274349A (en) 2003-03-07 2003-03-07 Business support system

Country Status (1)

Country Link
JP (1) JP2004274349A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148760A (en) * 2004-11-24 2006-06-08 Mindshare Inc Television telephone interview system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148760A (en) * 2004-11-24 2006-06-08 Mindshare Inc Television telephone interview system

Similar Documents

Publication Publication Date Title
JP7225631B2 (en) Image processing device, camera device, and image processing method
US9430780B2 (en) Communication service method and communication apparatus thereof
US11184578B2 (en) Audio and video recording and streaming in a three-computer booth
TW200928553A (en) System and method for dynamically adapting a slide show presentation to an audience behaviour
JPH08510099A (en) Communications system
JP2007104354A (en) Tv conference system and method, and tv conference terminal device
CN109643313A (en) Information processing equipment, information processing method and program
CN109376310A (en) User&#39;s recommended method, device, electronic equipment and computer readable storage medium
JP2004129071A (en) Two-way communication system
JP2004274349A (en) Business support system
JP2003339037A (en) Network conference system, network conference method, and network conference program
WO2023190344A1 (en) Information processing device, information processing method, and program
JP5217877B2 (en) Conference support device
US20020188460A1 (en) System and method for interactive research
US9270840B2 (en) Site image capture and marketing system and associated methods
JP2000270305A (en) Multi-point conference system
JP2022043234A (en) Management device, management method, and program
JP2004259198A (en) Information management apparatus, information management system and program
JP5188865B2 (en) Video conference system, information processing apparatus, information processing method, and program
JP2006211504A (en) Conference terminal apparatus, conference system and computer program
WO2022059451A1 (en) Donation device, donation method, and donation program
TWI807513B (en) Virtual video meeting system and meeting method
JP2004274342A (en) Video conference system
JP2021140792A (en) Communication method
JP2006107357A (en) Purchase information processing system, purchase information processing device, method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090729