JP5482740B2 - プレゼンテーションシステム、プレゼンテーション装置およびプログラム - Google Patents

プレゼンテーションシステム、プレゼンテーション装置およびプログラム Download PDF

Info

Publication number
JP5482740B2
JP5482740B2 JP2011153031A JP2011153031A JP5482740B2 JP 5482740 B2 JP5482740 B2 JP 5482740B2 JP 2011153031 A JP2011153031 A JP 2011153031A JP 2011153031 A JP2011153031 A JP 2011153031A JP 5482740 B2 JP5482740 B2 JP 5482740B2
Authority
JP
Japan
Prior art keywords
presentation
gesture
presenter
displayed
presentation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011153031A
Other languages
English (en)
Other versions
JP2013020434A (ja
Inventor
武 森川
開拓 小澤
猛 南
大輔 崎山
和也 姉崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2011153031A priority Critical patent/JP5482740B2/ja
Priority to US13/530,915 priority patent/US9740291B2/en
Publication of JP2013020434A publication Critical patent/JP2013020434A/ja
Application granted granted Critical
Publication of JP5482740B2 publication Critical patent/JP5482740B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、プレゼンテーションシステムおよびそれに関連する技術に関する。
プレゼンテーション装置等においては、発表者(プレゼンター)のジェスチャーを検出してプレゼンテーションを進行する技術が存在する(特許文献1参照)。
特開2010−205235号公報
しかしながら、特許文献1に記載の技術においては、発表者のジェスチャーを検出する期間が明示されておらず、当該ジェスチャーの検出がいずれの時点から開始されるのかが不明である。そのため、場合によっては、プレゼンテーションの開始前に行われた発表者のジェスチャーを誤って検出する可能性が有る。
そこで、この発明の課題は、プレゼンテーションの開始前におけるジェスチャーの誤検出を回避することが可能なプレゼンテーションシステムおよびそれに関連する技術を提供することにある。
上記課題を解決すべく、請求項1の発明は、プレゼンテーションシステムであって、プレゼンテーションの開始指示を受け付ける受付手段と、前記開始指示に応答して発表者のジェスチャーの検出を開始するとともに、前記ジェスチャーの検出時における前記発表者の顔の向きを検出する検出手段と、前記ジェスチャーの検出内容に基づいて発表資料の配信動作を制御する制御手段と、を備え、前記制御手段は、前記顔の向きに基づいて前記発表資料の配信先を決定することを特徴とする。
請求項2の発明は、請求項1の発明に係るプレゼンテーションシステムにおいて、前記制御手段は、前記顔の向きが前記発表者の所在位置から聴講者へ向かう第1の向きであることを条件として、前記発表資料を聴講者の端末である聴講者端末へ配信することを特徴とする。
請求項3の発明は、請求項1または請求項2の発明に係るプレゼンテーションシステムにおいて、前記制御手段は、前記顔の向きが前記発表者の所在位置から表示出力部による出力画像の表示面へ向かう第2の向きであることを条件として、前記発表資料を前記表示出力部に配信することを特徴とする。
請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係るプレゼンテーションシステムにおいて、前記制御手段は、前記検出内容に基づいて配信対象資料を決定することを特徴とする。
請求項5の発明は、請求項4の発明に係るプレゼンテーションシステムにおいて、前記制御手段は、本文資料と添付資料とのいずれを前記配信対象資料とするかを前記検出内容に基づいて決定することを特徴とする。
請求項6の発明は、請求項1ないし請求項3のいずれかの発明に係るプレゼンテーションシステムにおいて、前記制御手段は、前記検出内容に基づいて配信対象資料の配信対象ページを決定することを特徴とする。
請求項7の発明は、請求項6の発明に係るプレゼンテーションシステムにおいて、前記制御手段は、前記配信対象資料における全ページと前記配信対象資料における一部のページとのうちのいずれを前記配信対象ページとするかを前記検出内容に基づいて決定することを特徴とする。
請求項8の発明は、請求項6の発明に係るプレゼンテーションシステムにおいて、前記制御手段は、表示出力手段による出力画像の表示面に表示されている表示中ページの次のページと前記表示中ページの前のページとのいずれを前記配信対象ページとするかを前記検出内容に基づいて決定することを特徴とする。
請求項9の発明は、請求項2の発明に係るプレゼンテーションシステムにおいて、前記制御手段は、前記検出手段により第1のジェスチャーが検出されることを条件として、前記発表資料のうちの特定の資料の全ページのデータを前記聴講者端末へ配信することを特徴とする。
請求項10の発明は、請求項9の発明に係るプレゼンテーションシステムにおいて、前記発表資料は、本文資料と添付資料とを含み、前記制御手段は、前記第1のジェスチャーが検出される場合において、表示出力部による出力画像の表示面に前記本文資料が表示されているときには、前記本文資料の全ページのデータを前記聴講者端末へ配信し、前記表示面に前記添付資料が表示されているときには、前記添付資料の全ページのデータを前記聴講者端末へ配信することを特徴とする。
請求項11の発明は、請求項2の発明に係るプレゼンテーションシステムにおいて、前記制御手段は、前記検出手段により第2のジェスチャーが検出されることを条件として、前記発表資料の複数のページのうち、表示出力部による出力画像の表示面に表示されているページのデータを前記聴講者端末へ配信することを特徴とする。
請求項12の発明は、請求項11の発明に係るプレゼンテーションシステムにおいて、前記発表資料は、本文資料と添付資料とを含み、前記制御手段は、前記第2のジェスチャーが検出される場合において、前記表示面に前記本文資料が表示されているときには、前記本文資料の複数のページのうち前記表示面に表示されているページのデータを前記聴講者端末へ配信し、前記表示面に前記添付資料が表示されているときには、前記添付資料の複数のページのうち前記表示面に表示されているページのデータを前記聴講者端末へ配信することを特徴とする。
請求項13の発明は、請求項2の発明に係るプレゼンテーションシステムにおいて、前記発表資料は、本文資料と添付資料とを含み、前記制御手段は、前記検出手段により第3のジェスチャーが検出される場合において、表示出力部による出力画像の表示面に前記本文資料が表示されているときには、前記添付資料の全部を前記聴講者端末へ配信し、前記表示面に前記添付資料が表示されているときには、前記本文資料の全部を前記聴講者端末へ配信することを特徴とする。
請求項14の発明は、請求項3の発明に係るプレゼンテーションシステムにおいて、前記制御手段は、前記検出手段により第4のジェスチャーが検出されることを条件として、前記発表資料の複数のページのうち、前記表示面に表示されているページの次のページのデータを前記表示出力部に配信することを特徴とする。
請求項15の発明は、請求項3の発明に係るプレゼンテーションシステムにおいて、前記制御手段は、前記検出手段により第5のジェスチャーが検出されることを条件として、前記発表資料の複数のページのうち、前記表示面に表示されているページの前のページのデータを前記表示出力部に配信することを特徴とする。
請求項16の発明は、請求項3の発明に係るプレゼンテーションシステムにおいて、前記発表資料は、本文資料と添付資料とを含み、前記制御手段は、前記検出手段により第6のジェスチャーが検出される場合において、前記表示面に前記本文資料が表示されているときには、前記添付資料を前記表示出力部に配信し、前記表示面に前記添付資料が表示されているときには、前記本文資料を前記表示出力部に配信することを特徴とする。
請求項17の発明は、プレゼンテーションシステムであって、発表者を撮影する撮影装置と、前記撮影装置との間で通信が可能なプレゼンテーション装置と、を備え、前記プレゼンテーション装置は、プレゼンテーションの開始指示を受け付ける受付手段と、前記撮影装置による撮影画像に基づいて、前記発表者のジェスチャーを検出する検出手段と、前記ジェスチャーの検出内容に基づいて、発表資料の配信動作を制御する制御手段と、を有し、前記検出手段は、前記開始指示に応答して前記発表者のジェスチャーの検出を開始するとともに、前記ジェスチャーの検出時における前記発表者の顔の向きを検出し、前記制御手段は、前記顔の向きに基づいて前記発表資料の配信先を決定することを特徴とする。
請求項18の発明は、プレゼンテーション装置であって、プレゼンテーションの開始指示を受け付ける受付手段と、前記開始指示に応答して発表者のジェスチャーの検出を開始するとともに、前記ジェスチャーの検出時における前記発表者の顔の向きを検出する検出手段と、前記ジェスチャーの検出内容に基づいて、発表資料の配信動作を制御する制御手段と、を備え、前記制御手段は、前記顔の向きに基づいて前記発表資料の配信先を決定することを特徴とする。
請求項19の発明は、a)プレゼンテーションの開始指示を受け付けるステップと、b)前記開始指示に応答して発表者のジェスチャーの検出を開始するとともに、前記ジェスチャーの検出時における前記発表者の顔の向きを検出するステップと、c)前記ジェスチャーの検出内容に基づいて、発表資料を配信するステップと、をコンピュータに実行させるためのプログラムであって、前記ステップc)は、前記顔の向きに基づいて前記発表資料の配信先を決定するステップを有することを特徴とする。
請求項1ないし請求項19に記載の発明によれば、プレゼンテーションの開始指示に応答して、発表者のジェスチャーの検出が開始されるので、当該プレゼンテーションの開始前におけるジェスチャーの誤検出を回避することが可能である。また、ジェスチャーの検出内容に基づいて、発表資料の配信動作が制御されるので、発表者は、ジェスチャーを用いた簡易な操作によって発表資料の配信を指示することも可能である。
また、発表者の顔の向きに基づいて発表資料の配信先が決定されるので、発表者は、簡易に当該配信先を決定することが可能である。
実施形態に係るプレゼンテーションシステムの概要を示す概念図である。 プレゼンテーション装置の概略構成を示すブロック図である。 タッチスクリーンに表示される画面を示す図である。 タッチスクリーンに表示される画面を示す図である。 タッチスクリーンに表示される画面を示す図である。 タッチスクリーンに表示される画面を示す図である。 プレゼンテーション装置の動作を示すフローチャートである。 発表資料の聴講者端末への配信動作を示すフローチャートである。 発表資料のプロジェクタへの配信動作を示すフローチャートである。 カメラによる撮影画像を示す図である。 カメラによる撮影画像を示す図である。 カメラによる撮影画像を示す図である。 マッチング処理に用いる比較用画像を示す図である。 マッチング処理に用いる比較用画像を示す図である。 マッチング処理に用いる比較用画像を示す図である。 カメラによる撮影画像を示す図である。 カメラによる撮影画像を示す図である。 カメラによる撮影画像を示す図である。 スクリーンに表示されるページ画像を示す概念図である。 スクリーンに表示されるページ画像を示す概念図である。 スクリーンに表示されるページ画像を示す概念図である。 スクリーンに表示されるページ画像を示す概念図である。 スクリーンに表示されるページ画像を示す概念図である。 スクリーンに表示されるページ画像を示す概念図である。 発表資料の聴講者端末への配信動作を示すフローチャートである。 発表資料の聴講者端末への配信動作を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
<1.システム構成>
図1は、プレゼンテーションシステム100の概要を示すシステム構成図である。このプレゼンテーションシステム100は、電子会議システムとも称される。当該システム100は、プレゼンテーション装置10とカメラ20と表示出力装置30と各聴講者端末70とを備える。
プレゼンテーション装置10とカメラ20と表示出力装置30と各聴講者端末70とは、互いにネットワークNWを介して接続されており、ネットワーク通信を行うことが可能である。ここにおいて、ネットワークNWは、LAN、WAN、インターネットなどによって構成される。各装置のネットワークNWへの接続形態は、有線接続であってもよく、或いは無線接続であってもよい。
プレゼンテーション装置10は、プレゼンテーションの発表資料(プレゼンテーション資料とも称する)BPを管理する装置であり、管理装置とも称される。プレゼンテーション装置10は、発表資料BPを保存するとともに、当該発表資料BPの各配信先への配信動作を制御する。
具体的には、プレゼンテーション装置10は、後に詳しく説明するように、カメラ20の撮影画像等に基づいて発表者PTのジェスチャーGTを検出する。当該ジェスチャーGTが検出されると、プレゼンテーション装置10は、当該ジェスチャーGTの検出内容に基づいて、発表資料BPの表示用データ(詳細にはページ画像等)等を、表示出力装置30、および聴講者端末70等へ配信する。
なお、発表資料BPは、本文資料MPと添付資料SPとを備えて構成される。本文資料MPは、プレゼンテーションの進行において発表者PTが主として用いる資料である。添付資料SPは、発表者PTが本文資料MPを補足するために用いる資料であり、補足資料とも称される。
図1には、プレゼンテーションの会場である会議室MR内の様子も示されている。図1の左側が会議室MRの前方に対応し、図1の右側が会議室MRの後方に対応する。聴講者UA〜UDは、会議室MRの後方(図1の右側)に各自着席し、スクリーンSCに向かって発表者PTによる発表を聴講する。スクリーンSCは会議室MRの最も前方(図1の左側)に設置され、表示出力装置30から出力される画像が当該スクリーンSCに投映される。発表者PTは、スクリーンSCから約1m(メートル)〜2m(メートル)後方(聴講者側)、且つ、聴講者UA〜UDから見てスクリーンSCの右側に立ち、スクリーンSCまたは聴講者UA〜UDに向かって発表を行う。端的に言えば、発表者PTは、スクリーンSCの近傍で発表を行う。
カメラ20は、発表者PTの側方から当該発表者PTを撮影する位置に配置され、発表者PTの動画像を撮影する。
表示出力装置30は、プレゼンテーション資料のページ画像を表示する装置である。表示出力装置30としては、例えば、プロジェクタ装置が用いられる。プレゼンテーションの聴講者(聴講者UA,UB,UC,UD,...)は、表示出力装置30による出力画像の表示面であるスクリーンSCによって、発表資料BPのページ画像を視認することができる。
各聴講者端末70A,70B,70C,70Dは、プレゼンテーションの聴講者UA,UB,UC,UD,...によって利用される端末装置である。各聴講者端末70としては、例えば、パーソナルコンピュータなどが用いられる。聴講者UA〜UDは、それぞれ、プレゼンテーション資料を聴講者端末70A〜70Dを用いて表示閲覧することが可能である。
プレゼンテーション装置10は、この実施形態においては、画像形成機能をも有する装置(画像形成装置)、より詳細にはMFP(マルチ・ファンクショナル・ペリフェラル(Multi-Functional Peripheral)として構成されている。
図2は、プレゼンテーション装置(MFP)10の概略構成を示すブロック図である。
図2の機能ブロック図に示すように、プレゼンテーション装置(MFP)10は、画像読取部2、印刷出力部3、通信部4、格納部5、入出力部6およびコントローラ9等を備えており、これらの各部を複合的に動作させることによって、各種の機能を実現する。
画像読取部(スキャナ部)2は、プレゼンテーション装置(MFP)10の所定の位置に載置された原稿を光学的に読み取る光学的読取処理によって、当該原稿の画像データ(スキャン画像とも称する)を生成する処理部である。たとえば、画像読取部2は、発表者PTにより所定の位置に載置された原稿を読み取って、当該原稿の画像データを発表資料BPとして生成する。
印刷出力部3は、印刷対象に関するデータに基づいて紙などの各種の媒体に画像を印刷出力する出力部である。
通信部4は、通信ネットワークNWを介したネットワーク通信を行うことが可能な処理部である。このネットワーク通信では、TCP/IP(Transmission Control Protocol / Internet Protocol)およびFTP(File Transfer Protocol)等の各種のプロトコルが利用される。当該ネットワーク通信を利用することによって、プレゼンテーション装置(MFP)10は、所望の相手先との間で各種のデータを授受することが可能である。
格納部(記憶部)5は、ハードディスクドライブ等の記憶装置で構成される。格納部5は、画像読取部2等によって生成された発表資料BP等を格納する。
入出力部6は、プレゼンテーション装置(MFP)10に対する入力を受け付ける操作入力部6aと、各種情報の表示出力を行う表示部6bとを備えている。詳細には、プレゼンテーション装置10には操作パネル63(図1参照)等が設けられている。この操作パネル(タッチスクリーン)63は、液晶表示パネルに圧電センサ等が埋め込まれて構成されており、表示部6bの一部として機能するとともに、操作入力部6aの一部としても機能する。
コントローラ9は、プレゼンテーション装置(MFP)10に内蔵され、プレゼンテーション装置10を統括的に制御する制御装置である。コントローラ9は、CPUおよび各種の半導体メモリ(RAMおよびROM等)等を備えるコンピュータシステムとして構成される。コントローラ9は、CPUにおいて、ROM(例えば、EEPROM等)内に格納されている所定のソフトウエアプログラム(以下、単にプログラムとも称する)PGを実行することによって、各種の処理部を実現する。
具体的には、図2に示すように、コントローラ9は、ジェスチャー検出部91と、配信動作制御部93とを備える。
ジェスチャー検出部91は、カメラ20の撮影画像等に基づいて発表者PTのジェスチャー(以下、ジェスチャーGTとも称する)を検出する処理部である。後述するように、ジェスチャー検出部91は、プレゼンテーションの開始指示に応答して、ジェスチャーGTの検出を開始する。
配信動作制御部93は、ジェスチャーGTの検出内容に基づいて、発表資料BPの配信動作を制御する処理部である。
<2.動作>
つぎに、プレゼンテーションシステム100における各種動作について説明する。
プレゼンテーションシステム100においては、発表者PTからの開始指示が受け付けられると、プレゼンテーションが開始される。当該プレゼンテーションの開始と同時に、カメラ20の撮影画像等に基づく発表者PTのジェスチャーGTの検出も開始される。
また、プレゼンテーションの開始後において発表者PTのジェスチャーGTが検出されると、当該ジェスチャーGTの検出内容に基づいて発表資料BPが各配信先へ配信される。また、ジェスチャーGTの検出時においては、発表者PTの顔の向きも検出され、当該顔の向きに基づいて、発表資料BPの配信先が決定される。
以下では、このような動作について図3〜図24を参照しながら説明する。詳細には、(1)発表資料BPの登録動作、(2)プレゼンテーションの開始動作、(3)発表資料BPの配信動作、の各動作について、この順序で説明する。
(1)発表資料BPは、主催者側のユーザ(ここでは、発表者PT)によってプレゼンテーションの開始前にプレゼンテーション装置10に対して予め登録される。以下では、図3〜図6を参照しながら、発表資料BPの登録動作について詳細に説明する。
まず、発表者PTの所定の操作に応じて、タッチスクリーン63に画面GA1(図3参照)が表示される。図3に示すように、画面GA1内には、各カテゴリ(「共有」、「会議」、「個人」)別に3つのボタンBT1,BT2,BT3が表示される。この実施形態では、プレゼンテーションの発表資料BP等がカテゴリ「会議」に対応するボックスBX2に登録される場合を例示する。
上記画面GA1内のボタンBT2が押下されると、タッチスクリーン63には、ボックスBX2に関する操作画面GA2(図4参照)が表示される。図4に示すように、画面GA2の略中央には、6つのボックスBX21〜BX26にそれぞれ対応する6つのボタンBT21〜BT26が表示される。また、画面GA2の右側には、各種動作を実行するボタンBN1〜BN3が表示される。ボタンBN1は、印刷を実行するためのボタンである。ボタンBN2は、会議(プレゼンテーション)の開始指示を付与するためのボタンである。ボタンBN3は、発表資料BPを各ボックスBX21〜BX26に登録するためのボタンである。
ここでは、「会議1」のボックスBX21に発表資料BPが登録される場合を例示する。まず、画面GA2内のボタンBT21が選択され、ボタンBN3が押下されると、プレゼンテーション装置10は、画面GA3(図5参照)をタッチスクリーン63に表示する。図5に示すように、画面GA3には、その略中央に「本文資料の登録を行います。本文資料を原稿台にセットしてスタートボタンを押してください。」とのメッセージが表示される。
ここで、本文資料MPに係る原稿が原稿台にセットされスタートボタン(不図示)が押下されると、プレゼンテーション装置10は、当該原稿を読み取って本文資料MPを生成してボックスBX21に格納する。本文資料MPが格納されると、プレゼンテーション装置10は、画面GA4(図6参照)をタッチスクリーン63に表示する。図6に示すように、画面GA4には、その略中央に今度は「添付資料の登録を行います。添付資料を原稿台にセットしてスタートボタンを押してください。」とのメッセージが表示される。
そして、添付資料SPに係る原稿が原稿台にセットされスタートボタン(不図示)が押下されると、プレゼンテーション装置10は、原稿を読み取って添付資料SPを生成してボックスBX21に格納する。添付資料SPが格納されると、プレゼンテーション装置10は、本文資料MPと添付資料SPとがボックスBX21に登録された旨を表示する表示画面(不図示)をタッチスクリーン63に表示する。
なお、ここでは、画像読取部2により原稿を読みって、本文資料SPと添付資料SPとが生成されてボックスBX21に登録される場合を例示したが、これに限定されない。例えば、外部の装置に格納されている各種のファイルが本文資料MPおよび添付資料SPとしてネットワークNWを介して取得され、ボックスBX21に格納されるようにしてもよい。
(2)つぎに、プレゼンテーションの開始動作について、図4を参照しながら説明する。
まず、発表者PTは、所定の操作を経て再び画面GA2(図4参照)をタッチスクリーン63に表示させる。
この後、発表者PTは、本文資料MPと添付資料SPとを事前に登録(格納)しておいたボックスBX21に対応するボタンBT21を選択するとともに、プレゼンテーションの開始を指示するボタンBN2を押下する。プレゼンテーション装置10は、この発表者PTによるボタンBN2の押下操作をプレゼンテーションの開始指示として受け付ける。
(3)続いて、図7〜図9のフローチャートを参照しながら、発表資料BPの配信動作について説明する。
プレゼンテーションの開始指示が受け付けられると、図7のステップS11において、プレゼンテーション装置10は、本文資料MPのデータ(詳細には本文資料MPの第1ページのページ画像)を表示出力装置30に配信する。表示出力装置30は、配信されてきた本文資料MPの第1ページ目のページ画像をスクリーンSCに投映する。
ステップS12においては、プレゼンテーション装置10は、カメラ20を用いて発表者PTの撮影を開始するとともに、ジェスチャー検出部91を用いて発表者PTのジェスチャーGTの検出を開始する。このように、プレゼンテーションの開始指示に応答して、ジェスチャー検出部91は、発表者PTのジェスチャーGTの検出(監視)を開始する。
ジェスチャーGT1〜GT6は、発表者PTが腕を一旦顔の真横よりも高い位置にまで上方に持ち上げる共通動作CAと当該共通動作CAに引き続く各ジェスチャーに固有の動作とを備えて構成される。なお、ここでは、共通動作CAにおいて、発表者PTの肘は曲がった状態で持ち上がられるものとし、腕が顔の真横よりも高い位置に到達した時点においても肘は曲がった状態であるものとする。すなわち、共通動作CAにおいて、発表者PTの腕が完全に伸びきってはいないものとする。ジェスチャーGT1〜GT6に共通する動作CAが検出された時点で、ジェスチャーGT(ジェスチャーGT1〜GT6のいずれか)が開始された旨が判定される。さらに、当該共通の動作CAに引き続く固有の動作内容をも検出することによって、ジェスチャーの種別(ジェスチャーGT1〜GT6のうちのいずれが行われたか)が検出される。
具体的には、図10に示すように、プレゼンテーション装置10は、カメラ20による撮影画像SGに基づいて、発表者PTを含む周辺領域SAのモニタリングを開始する。周辺領域SAのモニタリング中において、ジェスチャー検出部91は、カメラ20による撮影画像SGと比較用画像HG(不図示)とに基づき両者のマッチング処理を行う。比較用画像HGは、発表者PTが腕を上げている状態を事前に(プレゼンテーションの開始前に)撮影した画像である。周辺領域SAのモニタリング中に、例えば、ある時点における撮影画像SG1(図11参照)と比較用画像HGとがマッチングすると、ジェスチャー検出部91は、共通動作CAが実行された旨を判定する。同時に、プレゼンテーション装置10は、撮影画像SG1から発表者PT全体の輪郭を抽出するとともに、当該輪郭から発表者PTの腕の部分ST(図11参照)をさらに抽出する。具体的には、プレゼンテーション装置10は、発表者PT全体の輪郭から胴体部分を抽出し、当該胴体部分から上向き(ないし斜め上向き)に突出(伸長)する部分を発表者PTの腕の部分ST(図11参照)として抽出する。
さらに、当該共通動作CAに引き続く動作内容も併せて検出される。そして、当該共通動作およびそれに引き続く動作に基づいて、発表者PTのジェスチャーGTが検出された旨とその種別(詳細には、ジェスチャーGT1〜GT6)とが判定される。
後述するように、ジェスチャーGT1は、発表者PTが5本の指を上方に向けて伸ばす(手指を全て上げる)ジェスチャーであり(図13参照)、ジェスチャーGT2は、発表者PTが1本の手指を上方に向けて伸ばす(上げる)ジェスチャーである(図14参照)。また、ジェスチャーGT3は、発表者PTが3本の手指を上方に向けて伸ばす(上げる)ジェスチャーである(図15参照)。さらに、ジェスチャーGT4は、発表者PTが顔の横に上げた腕を右向きに動かすジェスチャーであり(図17参照)、ジェスチャーGT5は、発表者PTが顔の横に上げた腕を左向きに動かすジェスチャーであり(図18参照)。また、ジェスチャーGT6は、発表者PTが顔の横に上げた腕をさらに上向きに動かすジェスチャーである(図19参照)。
ただし、ここでは、これらのジェスチャーGT1〜GT6は、後述するように、ジェスチャー検出時における発表者PTの顔の向きの検出結果にも応じて判別される。詳細には、ジェスチャーGT1〜GT3は、発表者PTの顔の向きが「向きD1」(後述)であることを条件として検出される(ステップS14,S15)。また、ジェスチャーGT4〜GT6は、発表者PTの顔の向きが「向きD2」(後述)であることを条件として検出される(ステップS16,S17)。
ステップS12の次のステップS13においては、発表者PTのジェスチャーGTが検出されたか否かが判定される。発表者PTのジェスチャーGTが検出されたと判定されると、ステップS14に進む。
ステップS14においては、ジェスチャーGTの検出時における発表者PTの顔の向きが「向きD1」であるか否かが判定される。ここで、向きD1は、当該発表者PTの所在位置から聴講者UA〜UDへ向かう向き、すなわち「聴講者に向かう向き」である。換言すれば、ステップS14では、発表者PTのジェスチャーGTが聴講者UA〜UDに向かって行われたか否かが判定される。
具体的には、プレゼンテーション装置10は、撮影画像SG1(図11参照)と比較用画像IG1(不図示)とのマッチング処理を行う。なお、比較用画像IG(不図示)は、発表者PTが顔を聴講者の座席位置に向けている状態を、事前にカメラ20により発表者PTの側方から撮影した静止画像である。
撮影画像SG1と画像IG1とのマッチング処理の結果、ジェスチャーGTの検出時における発表者PTの顔の向きが向きD1であると判定されると、ステップS15に進む。ステップS15においては、発表資料BPの聴講者端末70への配信処理(図8参照)が実行される。なお、発表資料BPの聴講者端末70への配信処理については、後に詳しく説明する。
一方、撮影画像SG1と画像IG1とのマッチング処理の結果、ジェスチャーGTの検出時における発表者PTの顔の向きが向きD1でないと判定されると、ステップS16に進む。
ステップS16においては、ジェスチャーGTの検出時における発表者PTの顔の向きが「向きD2」であるか否かが判定される。ここで、向きD2は、当該発表者PTの所在位置からスクリーンSCへ向かう向き、すなわち「スクリーンに向かう向き」である。換言すれば、ステップS16では、発表者PTのジェスチャーGTがスクリーンSCに向かって行われたか否かが判定される。
具体的には、プレゼンテーション装置10は、撮影画像SG1(図11参照)と比較用画像IG2(不図示)とのマッチング処理を行う。なお、比較用画像IG2(不図示)は、発表者PTが顔をスクリーンSCに向けている状態を、事前にカメラ20により発表者PTの側方から撮影した静止画像である。
撮影画像SG1と画像IG2とのマッチング処理の結果、ジェスチャーGTの検出時における発表者PTの顔の向きが向きD2であると判定されると、ステップS17に進む。ステップS17においては、発表資料BPの表示出力装置30への配信処理(図9参照)が実行される。なお、発表資料BPの表示出力装置30への配信処理についても、後に詳しく説明する。
一方、撮影画像SG1と画像IG2とのマッチング処理の結果、ジェスチャーGTの検出時における顔の向きが向きD2でないと判定されると、ステップS18に進む。
ステップS18においては、プレゼンテーションを終了するか否かが判定される。プレゼンテーションを終了すると判定された場合には処理が終了し、それ以外の場合にはステップS13に戻る。
つぎに、図8のフローチャートを参照しながら、発表資料BPの聴講者端末70(70A〜70D)への配信処理(図7のステップS15)について説明する。
まず、図8のステップS51においては、スクリーンSCに本文資料MP(詳細には、本文資料MPのページ画像)が表示されているか否かが判定される。スクリーンSCに本文資料MPが表示されていると判定されると、ステップS52に進む。一方、スクリーンSCに本文資料MPが表示されていないと判定されると、図8のフローチャートの処理(図7のステップS15の処理)を終了し、図7のステップS16に進む。
ステップS52においては、発表者PTが手指を全て上げるジェスチャーGT(以下、ジェスチャーGT1とも称する)を行ったか否かが判定される。具体的には、部分画像BG(図12参照)と比較用画像JG1(図13参照)とのマッチング処理が行われることによって、ジェスチャーGT1が行われたか否かかが判定される。図12に示すように、部分画像BGは、腕の先端付近の画像であり、詳細には、発表者PTの胴体から伸長する部分STの先端部周辺の一定領域(例えば、実空間距離に換算して半径15cm(センチメートル)の円の領域)の画像である。また、図13に示すように、比較用画像JG1は、発表者PTが手指を全て上げている状態を、事前に撮影した静止画像である。
部分画像BGと比較用画像JG1とのマッチング処理の結果、ジェスチャーGT1が行われた(発表者PTが手指を全て上げている)と判定されると、ステップS53に進む。一方、ジェスチャーGT1が行われていないと判定されると、ステップS54に進む。
ステップS53においては、プレゼンテーション装置10は、本文資料MPの全部(詳細には、本文資料MPの全ページのデータ)を各聴講者端末70(70A〜70D)に配信する。これにより、聴講者UA〜UDは、本文資料MPの全ページをそれぞれの聴講者端末70A〜70Dを用いて適宜閲覧することができる。
ステップS54においては、発表者PTが手指を1本上げるジェスチャーGT(以下、ジェスチャーGT2とも称する)を行ったか否かが判定される。具体的には、部分画像BG(図12参照)と比較用画像JG2(図14参照)とのマッチング処理が行われることによって、ジェスチャーGT2が行われたか否かが判定される。図14に示すように、比較用画像JG2は、発表者PTが手指を1本上げている状態を、事前に撮影した画像である。
部分画像BGと比較用画像JG2とのマッチング処理の結果、ジェスチャーGT2が行われた(発表者PTが手指を1本上げている)と判定されると、ステップS55に進む。一方、ジェスチャーGT2が行われていないと判定されると、ステップS56に進む。
ステップS55においては、プレゼンテーション装置10は、本文資料MPの一部(詳細には、本文資料MPの複数のページのうち、スクリーンSCに表示されているページのデータ)を各聴講者端末70(70A〜70D)へ配信する。これにより、聴講者UA〜UDは、スクリーンSCに表示されているページをそれぞれの聴講者端末70A〜70Dを用いて閲覧することができる。
ステップS56においては、発表者PTが手指を3本上げるジェスチャーGT(以下、ジェスチャーGT3とも称する)を行ったか否かが判定される。具体的には、部分画像BG(図12参照)と比較用画像JG3(図15参照)とのマッチング処理が行われることによって、ジェスチャーGT3が行われたか否かが判定される。図15に示すように、比較用画像JG3は、発表者PTが手指を3本上げている状態を、事前に撮影した画像である。
部分画像BGと比較用画像JG3とのマッチング処理の結果、ジェスチャーGT3が行われた(発表者PTが手指を3本上げている)と判定されると、ステップS57に進む。一方、ジェスチャーGT3が行われていないと判定されると、図8のフローチャートの処理(図7のステップS15)を終了し、図7のステップS16に進む。
ステップS57においては、プレゼンテーション装置10は、添付資料SPの全部(詳細には、添付資料SPの全ページのデータ)を各聴講者端末70(70A〜70D)に配信する。これにより、聴講者UA〜UDは、添付資料SPの全ページをそれぞれの聴講者端末70A〜70Dを用いて適宜閲覧することができる。
続いて、図9のフローチャートを参照しながら、発表資料BPの表示出力装置30への配信処理(図7のステップS17)について説明する。
ステップS71においては、図17に示すように、発表者PTが顔の横に上げた腕を右向きに動かすジェスチャーGT(以下、ジェスチャーGT4とも称する)が行われたか否かが判定される。
具体的には、画像SG2(図16参照)と画像TG1(図17参照)とを比較することによって、ジェスチャーGT4が行われたか否かが判定される。なお、画像SG2は、発表者PTが共通動作CAを行った時点での撮影画像である。この画像SG2においては、発表者PTの顔の向きは向きD2を向いている。また、画像TG1は、画像SG2の撮影時点から所定時間後(例えば、2秒後)の撮影画像である。
ここで、図17に示すように、画像TG1に係る発表者PTの腕の位置が、画像SG2に係る発表者PTの腕の位置よりも発表者PTから見て右側(画像SG2内において左側)に存在する場合には、ジェスチャーGT4が行われたと判定され、それ以外の場合には、ジェスチャーGT4が行われていないと判定される。なお、ここでは、ジェスチャーGT4は、発表者PTの顔の向きが向きD2であることを条件として検出される。ただし、これに限定されず、発表者PTの顔の向きが向きD2であることを条件とせずに、ジェスチャーGT4が検出されるようにしてもよい。具体的には、発表者PTの顔の向きが向きD2であるか否かに拘わらず、画像SG2と画像TG1とを比較してジェスチャーGT4が行われたか否かが判定されるようにしてもよい。
ジェスチャーGT4が行われたと判定されると、ステップS72に進み、スクリーンSCに投映されているページの次のページNPのデータが表示出力装置30に配信され、スクリーンSCには当該次のページNPのページ画像が投映される。
例えば、図20に示すように、本文資料MPの第2ページ目のページ画像がスクリーンSCに投映されている場合において、発表者PTによりジェスチャーGT4が行われたと判定されたとする。この場合、図21に示すように、投映中の本文資料MPの第2ページの次のページNPにあたる第3ページのページ画像が新たにスクリーンSCに投映される。
一方、ジェスチャーGT4が行われていないと判定されると、ステップS73に進む。ステップS73においては、発表者PTが顔の横に上げた腕を左向きに動かすジェスチャーGT(以下、ジェスチャーGT5とも称する)(図18参照)が行われたか否かが判定される。
具体的には、画像SG2(図16参照)と画像TG2(図18参照)とを比較することによって、ジェスチャーGT5が行われたか否かが判定される。なお、画像TG2は、画像SG2の撮影時点から所定時間後(例えば、2秒後)の撮影画像である。
ここで、図18に示すように、画像TG2に係る発表者PTの腕の位置が、画像SG2に係る発表者PTの腕の位置よりも発表者PTから見て左側(画像SG2内において右側)に存在する場合には、ジェスチャーGT5が行われたと判定され、それ以外の場合には、ジェスチャーGT5が行われていないと判定される。
ジェスチャーGT5が行われたと判定されると、ステップS74に進み、スクリーンSCに投映されているページの前のページPPのデータが表示出力装置30に配信され、スクリーンSCには当該前のページPPのページ画像が投映される。
例えば、図21に示すように、本文資料MPの第3ページ目のページ画像がスクリーンSCに投映されている場合において、発表者PTによりジェスチャーGT5が行われたと判定されたとする。この場合、図20に示すように、投映中の本文資料MPの第3ページの前のページにあたる第2ページのページ画像が新たにスクリーンSCに投映される。
一方、ジェスチャーGT5が行われていないと判定されると、ステップS75に進む。
ステップS75においては、発表者PTが顔の横に上げた腕をさらに上向きに動かすジェスチャーGT(以下、ジェスチャーGT6とも称する)(図19参照)が行われたか否かが判定される。
具体的には、画像SG2(図16参照)と画像TG3(図19参照)とを比較することによって、ジェスチャーGT6が行われたか否かが判定される。上述したように、共通動作CAは、発表者PTが肘を曲げた状態で腕を顔の真横よりも高い位置に持ち上げる動作である。また、ジェスチャーGT6は、共通動作CAに続く動作であり、詳細には、共通動作CAにおいて持ち上げた腕をさらに高い位置に持ち上げる動作である。また、画像SG2は発表者PTが共通動作CAを行った時点での撮影画像であり、画像TG3は当該画像SG2の撮影時点から所定時間後(例えば、2秒後)の撮影画像である。
図19に示すように、画像TG3に係る発表者PTの腕の位置が、画像SG2に係る発表者PTの腕の位置よりも上側に存在する場合には、ジェスチャーGT6が行われたと判定され、それ以外の場合には、ジェスチャーGT6が行われていないと判定される。
ジェスチャーGT6が行われたと判定されると、ステップS75に進み、ジェスチャーGTが行われていないと判定されると、図9のフローチャートの処理(図7のステップS17の処理)を終了し、図7のステップS18に進む。
ステップS75においては、本文資料MPと添付資料SPとの間で表示出力装置30での表示対象資料を切り替える動作が行われる。具体的には、本文資料MPのページ画像がスクリーンSCに投映されている場合には、添付資料SPのページ画像が表示出力装置30に配信され、スクリーンSCには添付資料SPのページ画像が投映される。逆に、添付資料SPのページ画像がスクリーンSCに投映されている場合には、本文資料MPのページ画像が表示出力装置30に配信され、スクリーンSCには本文資料MPのページ画像が投影される。
例えば、図21に示すように、本文資料MPの第3ページのページ画像がスクリーンSCに表示されているとする。ここで、発表者PTにより1回目のジェスチャーGT6が行われると、図22に示すように、添付資料SPの第1ページのページ画像が表示出力装置30に配信されてスクリーンSCに表示される(図9のステップS76)。
この後、添付資料SPの第1ページのページ画像の表示中において、発表者PTによりジェスチャーGT4が行われると、図23に示すように、添付資料SPの第2ページのページ画像が表示出力装置30に配信されてスクリーンSCに表示される(図9のステップS72)。
さらに、添付資料SPの第2ページの表示中において、発表者PTにより2回目のジェスチャーGT6が行われると、図21に示すように、添付資料SPの表示前に表示されていた本文資料MPの第3ページのページ画像が表示出力装置30に配信されて再びスクリーンSCに表示される。
この後、本文資料MPの第3ページの表示中において、発表者PTによりジェスチャーGT4が行われると、図24に示すように、本文資料MPの第4ページのページ画像が表示出力装置30に配信されてスクリーンSCに表示される(図9のステップS72)。
さらに、本文資料MPの第4ページの表示中において、発表者PTにより3回目のジェスチャーGT6が行われると、図23に示すように、本文資料MPの表示前に表示されていた添付資料SPの第2ページのページ画像が表示出力装置30に配信されて再びスクリーンSCに表示される(図9のステップS76)。
以上の動作によれば、プレゼンテーションの開始指示に応答して、発表者PTのジェスチャーGTの検出が開始される(図7のステップS12)ので、当該プレゼンテーションの開始前におけるジェスチャーGTの誤検出を回避することが可能である。
また、ジェスチャーGTの検出時における発表者PTの顔の向きに基づいて、発表資料BPの配信先が決定(ステップS14,S16等参照)されるので、発表者PTは、簡易に配信先を決定することが可能である。
特に、顔の向きが向きD1(発表者PTの所在位置から聴講者UA〜UDへ向かう向き)であると判定されると発表資料BPの配信先が聴講者端末70A〜70Dに決定される。換言すれば、発表者PTの顔の向き(向きD1)と発表資料BPの配信先(聴講者端末70A〜70D)とが密接に関連している。そのため、発表者PTは、ジェスチャーGTを行う際の顔の向きと発表資料BPの配信先との関係を直感的に認識することが可能である。
同様に、顔の向きが向きD2(発表者PTの所在位置からスクリーンSCへ向かう向き)であると判定されると発表資料BPの配信先が表示出力装置30に決定される。換言すれば、発表者PTの顔の向き(向きD2)と発表資料BPの配信先(表示出力装置30)とが密接に関連している。そのため、発表者PTは、ジェスチャーGTを行う際の顔の向きと発表資料BPの配信先との関係を直感的に認識することが可能である。
また、上記の動作においては、ジェスチャーGT1〜GT6に応じて、発表資料BPの配信動作が制御されるので、発表者PTは、ジェスチャーGT1〜GT6による簡易な操作によって発表資料BPの配信を指示することが可能である。
詳細には、ジェスチャーGTの検出内容(詳細には、ジェスチャーGT1,GT2のいずれが検出されるか)に基づいて、配信対象資料における全ページと配信対象資料における一部のページ(単一ページ)とのうちのいずれを配信対象ページとするかが決定される(ステップS15)。したがって、発表者PTは、ジェスチャーGT1,GT2を用いる(詳細には使い分ける)ことによって、発表資料BPのうちの特定の資料(ここでは本文資料MP)の全部(全ページ)と当該特定の資料の一部(表示中の単一ページ)とのいずれを配信対象ページとするかを切り換えることができる。
また、ジェスチャーGTの検出内容(詳細には、ジェスチャーGT1,GT2,GT3のいずれが検出されるか)に基づいて、本文資料MPと添付資料SPとのいずれを配信対象資料とするかが決定される。したがって、発表者PTは、ジェスチャーGT1,GT2,GT3を用いる(使い分ける)ことによって、本文資料MPと添付資料SPとのうちのいずれの資料(例えば添付資料MP)を配信対象資料とするかを変更することができる。
特に、発表者PTは、ジェスチャーGT3を用いることによって、本文資料MPと添付資料SPとのうちの非表示中の資料(例えば添付資料MP)の全部(全ページ)を配信対象資料として指示することもできる。
また、ジェスチャーGTの検出内容(詳細には、ジェスチャーGT6が検出されること)に基づいて、配信対象資料(ひいてはスクリーンSCでの表示対象資料)が変更される。したがって、発表者PTは、ジェスチャーGT6を用いることによって、配信対象資料を切り換えること、ひいては、本文資料MPと添付資料SPとのいずれをスクリーンSCに表示させるかを切り換えることもできる。
さらに、ジェスチャーGTの検出内容(詳細には、ジェスチャーGT4,GT5のいずれが検出されるか)に基づいて、スクリーンSCに表示されている表示中ページの次のページNPと当該表示中ページの前のページとのいずれを配信対象ページとするかが決定される。したがって、発表者PTは、ジェスチャーGT4,GT5を用いる(使い分ける)ことによって、発表資料BPのうちの表示中の資料(例えば本文資料MP)の表示中のページの変更動作を指示することができる。
また、上記実施形態においては、共通動作CAに引き続く固有動作(腕および/または指の動作)と発表者PTの顔の向きとの双方に基づいて、ジェスチャーGT1〜GT6の種別が判別される。したがって、上記の6種類のジェスチャーGT1〜GT6が顔の向きを考慮することなく判別される場合に比べて、ジェスチャーGT1〜GT6の判別の精度を向上させることが可能である。
<6.変形例等>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
たとえば、上記実施形態においては、本文資料MPが表示されていることを条件として発表資料BPを聴講者端末70へ配信する場合を例示したが、これに限定されず、添付資料SPが表示されていることを条件として発表資料BPを聴講者端末70へ配信するようにしてもよい。以下では、図25を参照しながら、このような変形例についてより詳細に説明する。
この変形例では、図8のステップS15に代えて、図25のステップS15が実行される。
まず、図25のステップS91においては、スクリーンSCに添付資料SP(詳細には、添付資料SPのページ画像)が表示されているか否かが判定される。スクリーンSCに添付資料SPが表示されていると判定されると、ステップS92に進む。一方、スクリーンSCに添付資料SPが表示されていないと判定されると、図25のフローチャートの処理(図7のステップS15の処理)を終了し、図7のステップS16に進む。
ステップS92においては、ジェスチャーGT1が行われた否かが判定される。ジェスチャーGT1が行われた(発表者PTが手指を全て上げている)と判定されると、ステップS93に進む。一方、ジェスチャーGT1が行われていない(発表者PTが手指を全て上げていない)と判定されると、ステップS94に進む。
ステップS93においては、プレゼンテーション装置10は、添付資料SPの全部(詳細には、添付資料SPの全ページのデータ)を各聴講者端末70(70A〜70D)に配信する。これにより、聴講者UA〜UDは、添付資料SPの全ページをそれぞれの聴講者端末70A〜70Dを用いて適宜閲覧することができる。
ステップS94においては、ジェスチャーGT2が行われたか否かが判定される。ジェスチャーGT2が行われた(発表者PTが手指を1本上げている)と判定されると、ステップS95に進む。一方、ジェスチャーGT2が行われていない(発表者PTが手指を1本上げていない)と判定されると、ステップS96に進む。
ステップS95においては、プレゼンテーション装置10は、添付資料SPの一部(詳細には、添付資料SPの複数のページのうち、スクリーンSCに表示されているページのデータ)を各聴講者端末70(70A〜70D)へ配信する。これにより、聴講者UA〜UDは、スクリーンSCに表示されている添付資料SPのページをそれぞれの聴講者端末70A〜70Dを用いて閲覧することができる。
ステップS96においては、ジェスチャーGT3が行われたか否かが判定される。ジェスチャーGT3が行われた(発表者PTが手指を3本上げている)と判定されると、ステップS97に進む。一方、ジェスチャーGT3が行われていない(発表者PTが手指を3本上げていない)と判定されると、図25のフローチャートの処理(図7のステップS15)を終了し、図7のステップS16に進む。
ステップS97においては、プレゼンテーション装置10は、本文資料MPの全部(詳細には、本文資料MPの全ページのデータ)を各聴講者端末70(70A〜70D)に配信する。これにより、聴講者UA〜UDは、本文資料MPの全ページをそれぞれの聴講者端末70A〜70Dを用いて適宜閲覧することができる。
また、この変形例(図25)では、スクリーンSCに添付資料SPが表示されていることを条件としてジェスチャーGT1〜GT3に対応する配信動作が行われる場合が例示され、上記実施形態(図8)では、スクリーンSCに本文資料MPが表示されていることを条件としてジェスチャーGT1〜GT3に対応する配信動作が行われる場合が例示されている。しかしながら、本発明は、これに限定されず、スクリーンSCに添付資料SPと本文資料MPとのいずれかが表示されている場合に、スクリーンSCに表示されている資料種別に応じた配信動作が行われるようにしてもよい。端的に言えば、図25の動作と図8の動作とが組み合わせられて実行されるようにしてもよい。
より詳細には、図26に示すように、ジェスチャーGT1が検出される場合には、本文資料MPと添付資料SPとのうちスクリーンSCに表示中の資料(本文資料MPまたは添付資料SP)の全部(全ページ)のデータが配信されるようにしてもよい(ステップS103)。同様に、ジェスチャーGT2が検出される場合には、本文資料MPと添付資料SPとのうちスクリーンSCに表示中の資料(本文資料MPまたは添付資料SP)の一部(表示中のページのみ)のデータが配信されるようにしてもよい(ステップS105)。また、ジェスチャーGT3が検出される場合には、スクリーンSCに表示中の資料(本文資料MPまたは添付資料SP)とは別の資料の全部(全ページ)のデータが配信されるようにしてもよい(ステップS107)。具体的には、ジェスチャーGT3が検出される場合において、スクリーンSCに本文資料MPが表示されているときには他方の添付資料SPの全部(全ページ)のデータが配信され、スクリーンSCに添付資料SPが表示されているときには、他方の本文資料MPの全部(全ページ)のデータが配信されるようにしてもよい。
また、上記実施形態等においては、発表者PTの顔の向きにも基づいてジェスチャーGT1〜GT6が判別(識別)される場合が例示されているが、これに限定されない。たとえば、発表者PTの顔の向きを考慮することなく、共通動作CAに引き続く固有動作(腕および/または指の動作)のみに基づいて複数のジェスチャーGTが互いに判別(識別)されるようにしてもよい。たとえば、上記の複数の種類のジェスチャーGT1〜GT6(あるいは他の複数の種類のジェスチャー)が発表者PTの顔の向きを考慮することなく判別されてもよい。また、この場合には、ジェスチャーごとに予め決定された配信先へと対象データが配信されるようにすればよい。たとえば、ジェスチャーGT1〜GT3に関しては聴講者端末70(70A〜70D)が配信先として予め決定され、ジェスチャーGT4〜GT6に関しては表示出力装置30が配信先として予め決定されればよい。
また、上記実施形態においては、ジェスチャーGTの種類に応じて、配信対象資料の種類(本文資料MP/添付資料SP)および配信対象ページ(全ページ/単一ページ)が変更される場合が例示されているが、これに限定されない。たとえば、単一のジェスチャーGT10(例えば共通動作CAのみで構成されるジェスチャー)が検出される場合に、所定のデータ(例えばスクリーンSCに表示中の資料の表示中のページのデータ)が配信されるようにしてもよい。また、この場合には、上記実施形態と同様に、当該ジェスチャーGT10の実行時における発表者PTの顔の向きに応じて、配信先が変更されるようにしてもよい。
BP 発表資料
HG 比較用画像
GT1〜GT6 ジェスチャー
JG1〜JG3 比較用画像
MP 本文資料
SA 周辺領域
SP 添付資料

Claims (19)

  1. プレゼンテーションシステムであって、
    プレゼンテーションの開始指示を受け付ける受付手段と、
    前記開始指示に応答して発表者のジェスチャーの検出を開始するとともに、前記ジェスチャーの検出時における前記発表者の顔の向きを検出する検出手段と、
    前記ジェスチャーの検出内容に基づいて発表資料の配信動作を制御する制御手段と、
    を備え
    前記制御手段は、前記顔の向きに基づいて前記発表資料の配信先を決定することを特徴とするプレゼンテーションシステム。
  2. 請求項1に記載のプレゼンテーションシステムにおいて、
    前記制御手段は、前記顔の向きが前記発表者の所在位置から聴講者へ向かう第1の向きであることを条件として、前記発表資料を聴講者の端末である聴講者端末へ配信することを特徴とするプレゼンテーションシステム。
  3. 請求項1または請求項2に記載のプレゼンテーションシステムにおいて、
    前記制御手段は、前記顔の向きが前記発表者の所在位置から表示出力部による出力画像の表示面へ向かう第2の向きであることを条件として、前記発表資料を前記表示出力部に配信することを特徴とするプレゼンテーションシステム。
  4. 請求項1ないし請求項3のいずれかに記載のプレゼンテーションシステムにおいて、
    前記制御手段は、前記検出内容に基づいて配信対象資料を決定することを特徴とするプレゼンテーションシステム。
  5. 請求項4に記載のプレゼンテーションシステムにおいて、
    前記制御手段は、本文資料と添付資料とのいずれを前記配信対象資料とするかを前記検出内容に基づいて決定することを特徴とするプレゼンテーションシステム。
  6. 請求項1ないし請求項3のいずれかに記載のプレゼンテーションシステムにおいて、
    前記制御手段は、前記検出内容に基づいて配信対象資料の配信対象ページを決定することを特徴とするプレゼンテーションシステム。
  7. 請求項6に記載のプレゼンテーションシステムにおいて、
    前記制御手段は、前記配信対象資料における全ページと前記配信対象資料における一部のページとのうちのいずれを前記配信対象ページとするかを前記検出内容に基づいて決定することを特徴とするプレゼンテーションシステム。
  8. 請求項6に記載のプレゼンテーションシステムにおいて、
    前記制御手段は、表示出力手段による出力画像の表示面に表示されている表示中ページの次のページと前記表示中ページの前のページとのいずれを前記配信対象ページとするかを前記検出内容に基づいて決定することを特徴とするプレゼンテーションシステム。
  9. 請求項2に記載のプレゼンテーションシステムにおいて、
    前記制御手段は、前記検出手段により第1のジェスチャーが検出されることを条件として、前記発表資料のうちの特定の資料の全ページのデータを前記聴講者端末へ配信することを特徴とするプレゼンテーションシステム。
  10. 請求項9に記載のプレゼンテーションシステムにおいて、
    前記発表資料は、本文資料と添付資料とを含み、
    前記制御手段は、前記第1のジェスチャーが検出される場合において、
    表示出力部による出力画像の表示面に前記本文資料が表示されているときには、前記本文資料の全ページのデータを前記聴講者端末へ配信し、
    前記表示面に前記添付資料が表示されているときには、前記添付資料の全ページのデータを前記聴講者端末へ配信することを特徴とするプレゼンテーションシステム。
  11. 請求項2に記載のプレゼンテーションシステムにおいて、
    前記制御手段は、前記検出手段により第2のジェスチャーが検出されることを条件として、前記発表資料の複数のページのうち、表示出力部による出力画像の表示面に表示されているページのデータを前記聴講者端末へ配信することを特徴とするプレゼンテーションシステム。
  12. 請求項11に記載のプレゼンテーションシステムにおいて、
    前記発表資料は、本文資料と添付資料とを含み、
    前記制御手段は、前記第2のジェスチャーが検出される場合において、
    前記表示面に前記本文資料が表示されているときには、前記本文資料の複数のページのうち前記表示面に表示されているページのデータを前記聴講者端末へ配信し、
    前記表示面に前記添付資料が表示されているときには、前記添付資料の複数のページのうち前記表示面に表示されているページのデータを前記聴講者端末へ配信することを特徴とするプレゼンテーションシステム。
  13. 請求項2に記載のプレゼンテーションシステムにおいて、
    前記発表資料は、本文資料と添付資料とを含み、
    前記制御手段は、前記検出手段により第3のジェスチャーが検出される場合において、 表示出力部による出力画像の表示面に前記本文資料が表示されているときには、前記添付資料の全部を前記聴講者端末へ配信し、
    前記表示面に前記添付資料が表示されているときには、前記本文資料の全部を前記聴講者端末へ配信することを特徴とするプレゼンテーションシステム。
  14. 請求項3に記載のプレゼンテーションシステムにおいて、
    前記制御手段は、前記検出手段により第4のジェスチャーが検出されることを条件として、前記発表資料の複数のページのうち、前記表示面に表示されているページの次のページのデータを前記表示出力部に配信することを特徴とするプレゼンテーションシステム。
  15. 請求項3に記載のプレゼンテーションシステムにおいて、
    前記制御手段は、前記検出手段により第5のジェスチャーが検出されることを条件として、前記発表資料の複数のページのうち、前記表示面に表示されているページの前のページのデータを前記表示出力部に配信することを特徴とするプレゼンテーションシステム。
  16. 請求項3に記載のプレゼンテーションシステムにおいて、
    前記発表資料は、本文資料と添付資料とを含み、
    前記制御手段は、前記検出手段により第6のジェスチャーが検出される場合において、 前記表示面に前記本文資料が表示されているときには、前記添付資料を前記表示出力部に配信し、
    前記表示面に前記添付資料が表示されているときには、前記本文資料を前記表示出力部に配信することを特徴とするプレゼンテーションシステム。
  17. プレゼンテーションシステムであって、
    発表者を撮影する撮影装置と、
    前記撮影装置との間で通信が可能なプレゼンテーション装置と、
    を備え、
    前記プレゼンテーション装置は、
    プレゼンテーションの開始指示を受け付ける受付手段と、
    前記撮影装置による撮影画像に基づいて、前記発表者のジェスチャーを検出する検出手段と、
    前記ジェスチャーの検出内容に基づいて、発表資料の配信動作を制御する制御手段と、
    を有し、
    前記検出手段は、前記開始指示に応答して前記発表者のジェスチャーの検出を開始するとともに、前記ジェスチャーの検出時における前記発表者の顔の向きを検出し、
    前記制御手段は、前記顔の向きに基づいて前記発表資料の配信先を決定することを特徴とするプレゼンテーションシステム。
  18. プレゼンテーション装置であって、
    プレゼンテーションの開始指示を受け付ける受付手段と、
    前記開始指示に応答して発表者のジェスチャーの検出を開始するとともに、前記ジェスチャーの検出時における前記発表者の顔の向きを検出する検出手段と、
    前記ジェスチャーの検出内容に基づいて、発表資料の配信動作を制御する制御手段と、
    を備え
    前記制御手段は、前記顔の向きに基づいて前記発表資料の配信先を決定することを特徴とするプレゼンテーション装置。
  19. a)プレゼンテーションの開始指示を受け付けるステップと、
    b)前記開始指示に応答して発表者のジェスチャーの検出を開始するとともに、前記ジェスチャーの検出時における前記発表者の顔の向きを検出するステップと、
    c)前記ジェスチャーの検出内容に基づいて、発表資料を配信するステップと、
    をコンピュータに実行させるためのプログラムであって、
    前記ステップc)は、前記顔の向きに基づいて前記発表資料の配信先を決定するステップを有することを特徴とするプログラム。
JP2011153031A 2011-07-11 2011-07-11 プレゼンテーションシステム、プレゼンテーション装置およびプログラム Expired - Fee Related JP5482740B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011153031A JP5482740B2 (ja) 2011-07-11 2011-07-11 プレゼンテーションシステム、プレゼンテーション装置およびプログラム
US13/530,915 US9740291B2 (en) 2011-07-11 2012-06-22 Presentation system, presentation apparatus, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011153031A JP5482740B2 (ja) 2011-07-11 2011-07-11 プレゼンテーションシステム、プレゼンテーション装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2013020434A JP2013020434A (ja) 2013-01-31
JP5482740B2 true JP5482740B2 (ja) 2014-05-07

Family

ID=47519678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011153031A Expired - Fee Related JP5482740B2 (ja) 2011-07-11 2011-07-11 プレゼンテーションシステム、プレゼンテーション装置およびプログラム

Country Status (2)

Country Link
US (1) US9740291B2 (ja)
JP (1) JP5482740B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5482740B2 (ja) * 2011-07-11 2014-05-07 コニカミノルタ株式会社 プレゼンテーションシステム、プレゼンテーション装置およびプログラム
JP6010062B2 (ja) * 2014-03-17 2016-10-19 京セラドキュメントソリューションズ株式会社 キューポイント制御装置およびキューポイント制御プログラム
KR20150130808A (ko) * 2014-05-14 2015-11-24 삼성전자주식회사 사용자의 공간 제스처를 식별하는 방법 및 장치
US9891803B2 (en) * 2014-11-13 2018-02-13 Google Llc Simplified projection of content from computer or mobile devices into appropriate videoconferences
CN107010491B (zh) * 2017-04-24 2018-08-14 芜湖市海联机械设备有限公司 一种电动电缆卷筒

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5923337A (en) * 1996-04-23 1999-07-13 Image Link Co., Ltd. Systems and methods for communicating through computer animated images
GB9906305D0 (en) * 1999-03-18 1999-05-12 Bolero International Limited Transaction support system
US6346933B1 (en) * 1999-09-21 2002-02-12 Seiko Epson Corporation Interactive display presentation system
US20030191805A1 (en) * 2002-02-11 2003-10-09 Seymour William Brian Methods, apparatus, and systems for on-line seminars
US8949382B2 (en) * 2003-02-26 2015-02-03 Siemens Industry, Inc. Systems, devices, and methods for network wizards
US7379560B2 (en) * 2003-03-05 2008-05-27 Intel Corporation Method and apparatus for monitoring human attention in dynamic power management
JP2004314855A (ja) * 2003-04-17 2004-11-11 Sumitomo Electric Ind Ltd 機器動作制御方法及び機器動作制御システム
US8698751B2 (en) * 2010-10-01 2014-04-15 Z124 Gravity drop rules and keyboard display on a multiple screen device
JP2005063092A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
US20060192775A1 (en) * 2005-02-25 2006-08-31 Microsoft Corporation Using detected visual cues to change computer system operating states
JP2006312347A (ja) * 2005-05-06 2006-11-16 Nissan Motor Co Ltd コマンド入力装置
KR100776801B1 (ko) * 2006-07-19 2007-11-19 한국전자통신연구원 화상 처리 시스템에서의 제스처 인식 장치 및 방법
US8160056B2 (en) * 2006-09-08 2012-04-17 At&T Intellectual Property Ii, Lp Systems, devices, and methods for network routing
US20110025818A1 (en) * 2006-11-07 2011-02-03 Jonathan Gallmeier System and Method for Controlling Presentations and Videoconferences Using Hand Motions
US7770115B2 (en) * 2006-11-07 2010-08-03 Polycom, Inc. System and method for controlling presentations and videoconferences using hand motions
US8011583B2 (en) * 2007-07-02 2011-09-06 Microscan Systems, Inc. Systems, devices, and/or methods for managing data matrix lighting
JP5207513B2 (ja) * 2007-08-02 2013-06-12 公立大学法人首都大学東京 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
US8918657B2 (en) * 2008-09-08 2014-12-23 Virginia Tech Intellectual Properties Systems, devices, and/or methods for managing energy usage
JP5183398B2 (ja) 2008-09-29 2013-04-17 株式会社日立製作所 入力装置
US8436789B2 (en) * 2009-01-16 2013-05-07 Microsoft Corporation Surface puck
JP5115499B2 (ja) * 2009-03-06 2013-01-09 セイコーエプソン株式会社 プレゼンテーション装置
US20100306249A1 (en) * 2009-05-27 2010-12-02 James Hill Social network systems and methods
TW201214196A (en) * 2010-09-23 2012-04-01 Hon Hai Prec Ind Co Ltd Interactive display system
WO2013000125A1 (en) * 2011-06-28 2013-01-03 Nokia Corporation Method and apparatus for live video sharing with multimodal modes
JP5482740B2 (ja) * 2011-07-11 2014-05-07 コニカミノルタ株式会社 プレゼンテーションシステム、プレゼンテーション装置およびプログラム
US9317175B1 (en) * 2013-09-24 2016-04-19 Amazon Technologies, Inc. Integration of an independent three-dimensional rendering engine
US9503687B2 (en) * 2015-03-24 2016-11-22 Fuji Xerox Co., Ltd. Personalized meeting event capture using egocentric tracking in smart spaces

Also Published As

Publication number Publication date
US20130019178A1 (en) 2013-01-17
US9740291B2 (en) 2017-08-22
JP2013020434A (ja) 2013-01-31

Similar Documents

Publication Publication Date Title
JP5482740B2 (ja) プレゼンテーションシステム、プレゼンテーション装置およびプログラム
JP5874465B2 (ja) 情報処理装置、画像形成装置、情報処理装置の制御方法、画像形成装置の制御方法、情報処理装置の制御プログラム、及び画像形成装置の制御プログラム
WO2012120958A1 (ja) 投影装置
KR20140027835A (ko) 휴대 단말기 및 메신저 영상 서비스 운용 방법
JP6354653B2 (ja) 拡張現実操作システムおよび拡張現実操作プログラム
JP5545497B2 (ja) 入力表示装置、画像形成装置、撮像装置、及びプログラム
US10044884B2 (en) Information processing apparatus and non-transitory computer readable medium
US9116757B2 (en) Data processing apparatus including plurality of applications and method
JP2015141454A (ja) 画像情報処理プログラム、画像情報処理方法及び画像情報処理装置
TW200941303A (en) Multi-object direction touch selection method and device, electronic device, computer accessible recording media and computer program product
JP6662264B2 (ja) 表示システム
JP2012185631A (ja) 投影装置
JP2013114374A (ja) 電子会議支援装置、電子会議システム、表示装置、画像形成装置、電子会議支援装置の制御方法、及び電子会議支援装置の制御プログラム
JP5884444B2 (ja) 電子会議支援装置、電子会議システム、表示装置、端末装置、画像形成装置、電子会議支援装置の制御方法、及び電子会議支援装置の制御プログラム
JP5488838B2 (ja) ラベル作成用処理プログラム及びラベル作成処理方法
JP5161520B2 (ja) プログラム、情報記憶媒体、写真印刷装置及び写真印刷方法
JP2014071827A (ja) 操作受付装置及び方法、並びにプログラム
JP6805625B2 (ja) システム、電子機器、認証処理方法およびプログラム
JP6650018B1 (ja) 情報処理装置、情報処理方法、プログラムならびに情報処理サーバ
JP2012230622A (ja) 情報処理装置
JP5819887B2 (ja) 印刷設定プログラムおよび電子機器
US10645250B2 (en) Image forming system, original document arrangement setting method and non transitory recording medium that records an original document arrangement setting program
JP6213581B2 (ja) 情報処理装置及び情報処理装置の制御プログラム
JP6572753B2 (ja) 画像形成装置、その制御方法、および、プログラム
JP2016224726A (ja) 表示制御方法、表示制御プログラムおよび表示制御装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130418

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R150 Certificate of patent or registration of utility model

Ref document number: 5482740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees