JP2011070368A - プレゼンテーションシステム - Google Patents

プレゼンテーションシステム Download PDF

Info

Publication number
JP2011070368A
JP2011070368A JP2009220396A JP2009220396A JP2011070368A JP 2011070368 A JP2011070368 A JP 2011070368A JP 2009220396 A JP2009220396 A JP 2009220396A JP 2009220396 A JP2009220396 A JP 2009220396A JP 2011070368 A JP2011070368 A JP 2011070368A
Authority
JP
Japan
Prior art keywords
screen
wrist
motion capture
marker
capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009220396A
Other languages
English (en)
Inventor
Tatsu Takakura
達 高倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2009220396A priority Critical patent/JP2011070368A/ja
Publication of JP2011070368A publication Critical patent/JP2011070368A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】通常の表示装置を用いることができ、発表者が演台上を自由に動き回りながら、手を自由に動かすことができるプレゼンテーションシステムを提供する。
【解決手段】発表者16は、目の位置と手首の位置と複数の指先の位置とを検出するためのモーションキャプチャマーカを装着している。カメラ装置11とカメラ装置12とカメラ装置13は発表者を撮影し、これらのモーションキャプチャマーカが写っている画像データを取得する。コンピュータ14は、取得された画像データに基づいて、これらのモーションキャプチャマーカの位置を求める。コンピュータ14は、各モーションキャプチャマーカの間の位置関係に基づいてスクリーン15上の位置を求め、その位置にマウスカーソル等を表示する。また、コンピュータ14は、各モーションキャプチャマーカの位置の変化を求め、これらの位置の変化に基づいてクリックやドラッグ&ドロップ等の操作指示を求める。
【選択図】図1

Description

本発明は、大画面の表示装置を用いてプレゼンテーションを行うプレゼンテーションシステムに関する。
大勢の聴衆に対して大画面の表示装置(スクリーン)を用いてプレゼンテーションを行うプレゼンテーションシステムが知られている。このプレゼンテーションシステムは、プレゼンテーションソフトを動作させるコンピュータと、コンピュータ上で動作するプレゼンテーションソフトと、コンピュータの画面が表示されるスクリーンと、画面を指し示すためのポインティング装置とで構成される。
発表者は、コンピュータにプレゼンテーションソフトを実行させて、発表資料をスクリーンに表示させる。そして、発表者は、ポインティング装置によりスクリーン上の聴衆に参照して欲しい部分を指し示す。
ポインティング装置として、マウスやレーザーが用いられる。
しかし、レーザーを用いたポインティング装置を用いる場合、発表者はポインティング装置の操作を行うために手が塞がってしまう。このため、発表者はプレゼンテーション中にポインティング装置以外の物を持つことができない。また、発表者は実行中のプレゼンテーションソフトに対する操作を入力することができない。
一方、ポインティング装置としてマウスを用いる場合、発表者は、手元のモニタを参照しながらマウス操作を行うことが多い。発表者は、マウスの移動によりスクリーン上のマウスカーソルを移動させ、マウスクリック操作等により実行中のプレゼンテーションソフトに対する操作を入力する。
しかし、マウスを用いる場合であっても発表者がプレゼンテーション中にポインティング装置以外の物を持つことができない点は、レーザーを用いたポインティング装置と同様である。さらに、発表者は、モニタの置いてある場所から離れられなくなり、聴衆と向き合わず、モニタと向かい合いながら発表を行わなければならない
特許文献1は、プレゼンテーション中に発表者が演台上を自由に移動できるように、赤外光発射装置をポインティング装置として用いるプレゼンテーションシステムを開示する。特許文献1に開示されたプレゼンテーションシステムでは、赤外光発射装置から発射された赤外光を赤外光検出装置で検出することにより、実行中のプレゼンテーションソフトに対する操作が入力される。
特開2000−20238号公報
しかしながら、特許文献1に開示されている技術でも、発表者は赤外光発射装置の操作を行うために手が塞がる。このため、発表者は、プレゼンテーション中に赤外光発射装置以外の物を持つことができない点はマウスを用いる場合と同様である。
また、特許文献1に開示されている技術では、スクリーンに向けて発射された赤外光を検出する機能を持った特別なスクリーンが必要である。
本発明は、通常の表示装置を用いることができ、発表者が演台上を自由に動き回りながら、手を自由に動かすことができるプレゼンテーションシステムを提供することを目的とする。
上記目的を達成するため、本発明に係るプレゼンテーションシステムは、
画面を表示する画面表示装置と、
発表者によって装着される複数のモーションキャプチャマーカと、
前記複数のモーションキャプチャマーカを撮影し、当該複数のモーションキャプチャマーカが写っている画像を取得する撮影手段と、
前記撮影手段によって取得された画像に基づいて前記画面表示装置によって表示されている画面上の位置を求める画面位置決定手段と、
前記撮影手段によって取得された画像に基づいて所定の操作を指示する操作指示を求める操作指示決定手段と、
を備えることを特徴とするプレゼンテーションシステム。
好ましくは、本発明に係るプレゼンテーションシステムは、
前記撮影手段によって取得された画像に基づいて各モーションキャプチャマーカの位置を求めるモーションキャプチャマーカ検出手段を備え、
前記画面位置決定手段が、前記モーションキャプチャマーカ検出手段によって求められた各モーションキャプチャマーカの間の位置の関係に基づいて前記画面上の位置を求め、
前記操作指示決定手段が、前記モーションキャプチャマーカ検出手段によって求められた各モーションキャプチャマーカの位置の変化を求め、当該各モーションキャプチャマーカの位置の変化に基づいて前記操作指示を求める、
ことを特徴とする。
好ましくは、前記複数のモーションキャプチャマーカが、発表者の目の位置を検出するための1対の目キャプチャマーカと、発表者の左右いずれかの手首に装着されて当該手首の位置を検出するための手首キャプチャマーカと、前記手首キャプチャマーカが装着される手の複数の指に装着される複数の指キャプチャマーカとを含み、
前記画面位置決定手段が、前記1対の目キャプチャマーカと、前記手首キャプチャマーカと、前記複数の指キャプチャマーカとのうち、少なくとも2つの位置の関係に基づいて、前記画面上の位置を求め、
前記操作指示決定手段が、前記手首キャプチャマーカの位置の変化と、前記複数の指キャプチャマーカの位置の変化とに基づいて、クリック、ドラッグ、ドロップ、マーク付け開始、マーク付け中、マーク付け終了、マーク消し開始、マーク消し中およびマーク消し終了のいずれかの操作指示を求める、
ことを特徴とする。
本発明によれば、通常の表示装置を用いることができ、発表者はプレゼンテーションを行っている間、演台上を自由に動き回りながら、手を自由に動かすことができる。
本発明の実施形態に係るプレゼンテーションシステムの構成の一例を示す図である。 本発明の実施形態に係るプレゼンテーションシステム10のブロック図である。 モーションキャプチャマーカの垂直方向の取り付け位置の一例を示す図である。 モーションキャプチャマーカの水平方向の取り付け位置の一例を示す図である。 クリック操作を検知する場合の手首と指先1の位置の変化の一例を示す図である。 スクリーンに表示されているプレゼンテーション資料上でマークを付ける場合の手首と指先1と指先2の位置の変化の一例を示す図である。 スクリーンに表示されているプレゼンテーション資料上でマークを消す場合の手首と指先1と指先2と指先3の位置の変化の一例を示す図である。 ポインティングプログラムの実行するポインティング処理のフローチャートの一例を示す図である。
以下、本発明の実施形態について図面を参照しながら説明する。
図1は、本発明の実施形態に係るプレゼンテーションシステム10の構成の一例を示す。
プレゼンテーションシステム10は、カメラ装置11と、カメラ装置12と、カメラ装置13と、コンピュータ14と、スクリーン15とを備えている。
発表者16は、目の位置と手首の位置と複数の指先の位置とを検出するためのモーションキャプチャマーカを装着している。
カメラ装置11は、発表者16を垂直方向に撮影し、頭上から撮影した画像データを取得する。この画像データにより、発表者16が装着している複数のモーションキャプチャマーカの水平方向(X軸方向とY軸方向)の位置がそれぞれ検出される。
カメラ装置12とカメラ装置13は、発表者15を水平方向に撮影し、画像データを取得する。これらの画像データにより、発表者16が装着している複数のモーションキャプチャマーカの垂直方向(Z軸方向)の位置がそれぞれ検出される。
コンピュータ14は、プレゼンテーションアプリケーションプログラムを実行する。更に、コンピュータ14は、後述するように、ポインティングプログラムを実行し、発表者16が装着しているモーションキャプチャマーカの位置と位置の変化に基づいて、発表者が指し示しているスクリーン15上の位置と、クリック動作、ドラッグ及びドロップ動作等の発表者による操作を検出する。
スクリーン15は、実行中のプレゼンテーションアプリケーションプログラムにより出力される画面を表示する。
図2は、本発明の実施形態に係るプレゼンテーションシステム10のブロック図である。
図1と図2の同一の構成要素には同一の符号を付し、説明を省略する。
コンピュータ14は、CPU(Central Processing Unit)141とメモリ142を含んでいる。
CPU141は、メモリ142に読み込まれたプログラムを実行する。
メモリ142は、RAM(Random Acess Memory)とROM(Read Only Memory)等を含む。メモリ142には、図示しないハードディスク等の記憶装置からポインティングプログラムとプレゼンテーションアプリケーションプログラム(以下、プレゼンテーションアプリという。)1424が読み込まれる。
ポインティングプログラムは、モーションキャプチャマーカ検出部1421と画面位置決定部1422と操作指示決定部1423とで構成される。
モーションキャプチャマーカ検出部1421は、カメラ装置11とカメラ装置12とカメラ装置13とによって取得された画像データを解析して、個々のモーションキャプチャマーカの位置を検出する。すなわち、モーションキャプチャマーカ検出部1421は、発表者16の目の位置、手首の位置、および複数の指先の位置を検出する。
画面位置決定部1422は、少なくとも2つのモーションキャプチャマーカの位置がどのような位置関係にあるかに基づいて発表者が指し示しているスクリーン15上の位置を求める。例えば、ある2つのモーションキャプチャマーカを結ぶ直線の延長線とスクリーン15の交点を、発表者の指し示しているスクリーン15上の位置であるとする。
操作指示決定部1423は、手首の位置の変化と複数の指の位置の変化に基づいて、発表者16が入力する操作を求める。なお、発表者16によって入力される操作は、例えば、クリック、ドラッグ、ドロップ、マーク付け開始、マーク付け中、マーク付け終了、マーク消し開始、マーク消し中およびマーク消し終了である。
プレゼンテーションアプリ1424は、スクリーン15に画面を表示させる。すなわち、プレゼンテーションアプリ1424は、画面位置決定部1422によって求められた画面上の位置にマウスカーソル等を表示させ、操作指示決定部1423によって求められた操作指示に応じてスクリーン15にプレゼンテーション資料を表示させる。
なお、プレゼンテーションアプリ1424は、一般のプレゼンテーション用ソフトであり、例えば、PowerPoint(登録商標)である。
図3は、発表者の目の位置、手首の位置、指先の位置を検出するためのモーションキャプチャマーカの垂直方向の取り付け位置の一例を示す。
発表者16は、1対の目キャプチャマーカ21、22と、手首キャプチャマーカ23と、3個の指キャプチャマーカ24、25、26とを装着する。
1対の目キャプチャマーカ21、22は、目の垂直方向の位置を検出する目的で左右の耳の位置に取り付けられる。手首キャプチャマーカ23は、手首の垂直方向の位置を検出する目的で、発表者の左右いずれかの手首に取り付けられる。指キャプチャマーカ24は、指先1の垂直方向の位置を検出する目的で手首キャプチャマーカ23が装着される手の指先1に取り付けられる。同様に、指キャプチャマーカ25と26は、それぞれ指先2と指先3の垂直方向の位置を検出する目的で手首キャプチャマーカ23が装着される手の指先2と指先3に取り付けられる。
カメラ装置12とカメラ装置13は、1対の目キャプチャマーカ21、22と、手首キャプチャマーカ23と、3個の指キャプチャマーカ24、25、26とを装着した発表者を水平方向に撮影し、画像データを取得する。
モーションキャプチャマーカ検出部1421は、発表者16が立っている状態に応じて、カメラ装置12とカメラ装置13のいずれかまたは両方の取得した画像データに基づいてモーションキャプチャマーカの垂直方向の位置を決定する。
モーションキャプチャマーカ検出部1421は、垂直方向(Z軸方向)の位置情報を以下に示すように求める。
目の垂直方向の位置は、目キャプチャマーカ21の位置(ye1,ze1)と目キャプチャマーカ22の位置(ye2,ze2)の垂直方向の平均の位置(ye,ze)とする。
手首の垂直方向の位置は、手首キャプチャマーカ23の位置(yh,zh)とする。
指先1の垂直方向の位置は、指キャプチャマーカ24の位置(yf1,zf1)とする。
指先2の垂直方向の位置は、指キャプチャマーカ25の位置(yf2,zf2)とする。
指先3の垂直方向の位置は、指キャプチャマーカ26の位置(yf3,zf3)とする。
画面位置決定部1422は、例えば、目の垂直方向の位置(ye,ze)と手首の垂直方向の位置(yh,zh)を結ぶ直線の延長線とスクリーン15の交点をスクリーン15上の垂直方向の位置として求める。
画面位置決定部1422は、求めた垂直方向の位置をマウスの挙動を管理するプログラムに通知する。プレゼンテーションアプリ1424は、マウスの挙動を管理するプログラムを介してマウスカーソルのスクリーン15上の垂直方向の位置情報を受け取る。
画面位置決定部1422は、スクリーン15上の垂直方向の位置がマウスの挙動を管理するプログラムの管理している座標の外に存在する場合、マウスカーソルは画面上の上端、若しくは下端に存在すると判定する。
図4は、発表者の目の位置、手首の位置、指先の位置を検出するためのモーションキャプチャマーカの水平方向の取り付け位置の一例を示す。
発表者16は、1対の目キャプチャマーカ31、32と、手首キャプチャマーカ33と、3個の指キャプチャマーカ34、35、36とを装着する。
1対の目キャプチャマーカ31、32は、目の水平方向の位置を検出する目的で左右の耳の位置に取り付けられる。手首キャプチャマーカ33は、手首の水平方向の位置を検出する目的で、発表者の左右いずれかの手首に取り付けられる。指キャプチャマーカ34は、指先1の水平方向の位置を検出する目的で手首キャプチャマーカ33が装着される手の指先1に取り付けられる。同様に、指キャプチャマーカ35と36は、それぞれ指先2と指先3の水平方向の位置を検出する目的で手首キャプチャマーカ23が装着される手の指先2と指先3に取り付けられる。
なお、垂直方向の位置を検出するためのモーションキャプチャマーカが水平方向の位置を検出するためのモーションキャプチャマーカを兼ねても良い。すなわち、1対の目キャプチャマーカ21、22と1対の目キャプチャマーカ31、32は同じものであって良い。同様に、手首キャプチャマーカ23と手首キャプチャマーカ33、3個の指キャプチャマーカ24、25、26と3個の指キャプチャマーカ34、35、36はそれぞれ同じものであって良い。
カメラ装置11は、1対の目キャプチャマーカ31、32と、手首キャプチャマーカ33と、3個の指キャプチャマーカ34、35、36とを装着した発表者を頭上から垂直方向に撮影し、画像データを取得する。
モーションキャプチャマーカ検出部1421は、水平方向(X軸方向とY軸方向)の位置情報を以下に示すように求める。
目の水平方向の位置は、目キャプチャマーカ31の位置(xe1,ye1)と目キャプチャマーカ32の位置(xe2,ye2)の垂直方向の平均の位置(xe,ye)とする。
手首の水平方向の位置は、手首キャプチャマーカ33の位置(xh,yh)とする。
指先1の水平方向の位置は、指キャプチャマーカ34の位置(xf1,yf1)とする。
指先2の水平方向の位置は、指キャプチャマーカ35の位置(xf2,yf2)とする。
指先3の水平方向の位置は、指キャプチャマーカ36の位置(xf3,yf3)とする。
画面位置決定部1422は、例えば、目の水平方向の位置(xe,ye)と手首の水平方向の位置(xh,yh)を結ぶ直線の延長線とスクリーン15の交点をスクリーン15上の水平方向の位置として求める。
画面位置決定部1422は、求めた水平方向の位置をマウスの挙動を管理するプログラムに通知する。プレゼンテーションアプリ1424は、マウスの挙動を管理するプログラムを介してマウスカーソルのスクリーン15上の水平方向の位置情報を受け取る。
画面位置決定部1422は、スクリーン15上の水平方向の位置がマウスの挙動を管理するプログラムの管理している座標の外に存在する場合、マウスカーソルは画面上の左端、若しくは右端に存在すると判定する。
図5は、クリック操作を検知する場合の手首と指先1の位置の変化の一例を示す。
画面位置決定部1422は、上述した方法により、マウスカーソルのスクリーン15上の位置を求め、マウスの挙動を管理するプログラムに通知する。
モーションキャプチャマーカ検出部1421は、手首の位置41を(xh1,yh1,zh1)と求めたとする。また、モーションキャプチャマーカ検出部1421は、ある時刻に指先1の位置42を(xf1,yf1,zf1)と求め、その時刻から所定の時間経過した後に指先1の位置43を(xf1´,yf1´,zf1´)と求めたとする。ただし、xf1≒xf1´、yf1≒yf1´、zf1>zf1´とする。
操作指示決定部1423は、このように、所定の時間内に、指先1が位置42(xf1,yf1,zf1)から位置43(xf1´,yf1´,zf1´)に移動した時に、手首の位置41(xh1,yh1,zh1)を中心とする弧を想定し、角度θがある一定以上になった場合にクリック操作が行われたと判断する。ただし、zf1>zf1´とする。
操作指示決定部1423は、クリック操作が行われたことをマウスの挙動を管理するプログラムに通知する。マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知されたマウスカーソルの位置においてクリック操作が行われたことをプレゼンテーションアプリ1424に通知する。
マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知されたマウスカーソルの位置が管理している座標の外に存在する場合、クリック操作をプレゼンテーションアプリ1424に通知しない。
また、操作指示決定部1423は、クリック操作が行われたと判断した後に指先1と手首が並行に移動している場合には、ドラッグ操作中であると判断する。
操作指示決定部1423は、ドラッグ操作中であることをマウスの挙動を管理するプログラムに通知する。
更に、操作指示決定部1423は、ドラッグ中であると判断している状態において、指先1がクリック操作と反対の方向に動いた場合に、ドロップ操作が行われたと判断する。操作指示決定部1423は、例えば、所定の時間内に、指先1が位置(xf2,yf2,zf2)から位置(xf2´,yf2´,zf2´)に移動した時に、手首の位置(xh2,yh2,zh2)を中心とする弧を想定し、角度θがある一定以上になった場合にドロップ操作が行われたと判断する。ただし、xf2≒xf2´、yf2≒yf2´、zf2<zf2´とする。
操作指示決定部1423は、ドロップ操作が行われたことをマウスの挙動を管理するプログラムに通知する。マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知されたマウスカーソルの位置においてドロップ操作が行われたことをプレゼンテーションアプリ1424に通知する。
マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知されたマウスカーソルの位置が管理している座標の外に存在する場合、ドロップ操作をプレゼンテーションアプリ1424に通知しない。
図6は、スクリーン15に表示されているプレゼンテーション資料上でマークを付ける場合の手首と指先1と指先2の位置の変化の一例を示す。
画面位置決定部1422は、上述した方法により、マウスカーソルのスクリーン15上の位置を求め、マウスの挙動を管理するプログラムに通知する。
モーションキャプチャマーカ検出部1421は、手首の位置51を(xh1,yh1,zh1)と求めたとする。また、モーションキャプチャマーカ検出部1421は、ある時刻に指先1と指先2が重なっており、それらの位置52を(xf1,yf1,zf1)と求めたとする。そして、モーションキャプチャマーカ検出部1421は、その時刻から所定の時間経過した後に指先1の位置53を(xf1´,yf1´,zf1´)と求めたとする。ただし、xf1≒xf1´、yf1≒yf1´、zf1>zf1´とする。
操作指示決定部1423は、このように、ある時刻に指先1と指先2が重なっており、所定の時間内に、指先1が位置52(xf1,yf1,zf1)から位置53(xf1´,yf1´,zf1´)に移動した時に、手首の位置51(xh1,yh1,zh1)を中心とする弧を想定し、角度θがある一定以上になった場合にマークを付けるためのマーカが選択された(マーク付け開始操作が行われた)と判断する。ただし、zf1>zf1´とする。
操作指示決定部1423は、マーカが選択されてマーク付け開始操作が行われたことをマウスの挙動を管理するプログラムに通知する。マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知されたマウスカーソルの位置においてマーク付け開始操作が行われたことをプレゼンテーションアプリ1424に通知する。プレゼンテーションアプリ1424は、画面位置決定部1422によって通知される位置にマーカを表示する。
マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知された位置が管理している座標の外に存在する場合、マーク付け開始操作をプレゼンテーションアプリ1424に通知しない。
また、操作指示決定部1423は、マーク付け開始操作が行われたと判断した後に、指先1と手首が並行に移動している場合には、マーク付け操作中であると判断する。
操作指示決定部1423は、マーク付け操作中であることをマウスの挙動を管理するプログラムに通知する。マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知される位置においてマーク付け操作中であることをプレゼンテーションアプリ1424に通知する。プレゼンテーションアプリ1424は、画面位置決定部1422によって通知される位置にマーカを表示し、線を引く。
更に、操作指示決定部1423は、マーク付け操作中であると判断している状態において、指先1がマーク付け開始操作と反対の方向に動いた場合に、マーカの選択を解除するマーク付け終了操作が行われたと判断する。操作指示決定部1423は、例えば、指先1が所定の時間に位置(xf2,yf2,zf2)から位置(xf2´,yf2´,zf2´)に移動した時に、手首の位置(xh2,yh2,zh2)を中心とする弧を想定し、角度θがある一定以上になった場合にマーク付け終了操作が行われたと判断する。ただし、xf2≒xf2´、yf2≒yf2´、zf2<zf2´とする。
操作指示決定部1423は、マーク付け終了操作が行われたことをマウスの挙動を管理するプログラムに通知する。マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知された位置においてマーク付け終了操作が行われたことをプレゼンテーションアプリ1424に通知する。プレゼンテーションアプリ1424は、画面位置決定部1422によって通知される位置にマウスカーソルを表示する。
マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知された位置が管理している座標の外に存在する場合、マーク付け終了操作をプレゼンテーションアプリ1424に通知しない。
図7は、スクリーン15に表示されているプレゼンテーション資料上でマークを消す場合の手首と指先1と指先2と指先3の位置の変化の一例を示す。
画面位置決定部1422は、上述した方法により、マウスカーソルのスクリーン15上の位置を求め、マウスの挙動を管理するプログラムに通知する。
モーションキャプチャマーカ検出部1421は、手首の位置61を(xh1,yh1,zh1)と求めたとする。また、モーションキャプチャマーカ検出部1421は、ある時刻に指先1と指先2と指先3が重なっており、それらの位置62を(xf1,yf1,zf1)と求めたとする。そして、モーションキャプチャマーカ検出部1421は、その時刻から所定の時間経過した後に、指先1の位置63を(xf1´,yf1´,zf1´)と求めたとする。ただし、xf1≒xf1´、yf1≒yf1´、zf1>zf1´とする。
操作指示決定部1423は、このように、ある時刻に指先1と指先2と指先3が重なっており、所定の時間内に、指先1が位置62(xf1,yf1,zf1)から位置63(xf1´,yf1´,zf1´)に移動した時に、手首の位置61(xh1,yh1,zh1)を中心とする弧を想定し、角度θがある一定以上になった場合にマークを消すためのマーク消しが選択された(マーク消し開始操作が行われた)と判断する。ただし、zf1>zf1´とする。
操作指示決定部1423は、マーク消しが選択されてマーク消し開始操作が行われたことをマウスの挙動を管理するプログラムに通知する。マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知されたマウスカーソルの位置においてマーク消し開始操作が行われたことをプレゼンテーションアプリ1424に通知する。プレゼンテーションアプリ1424は、画面位置決定部1422によって通知される位置にマーク消しを表示する。
マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知された位置が管理している座標の外に存在する場合、マーク消し開始操作をプレゼンテーションアプリ1424に通知しない。
また、操作指示決定部1423は、マーク消し開始操作が行われたと判断した後に、指先1と手首が並行に移動している場合には、マーク消し操作中であると判断する。
操作指示決定部1423は、マーク消し操作中であることをマウスの挙動を管理するプログラムに通知する。マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知される位置においてマーク消し操作中であることをプレゼンテーションアプリ1424に通知する。プレゼンテーションアプリ1424は、画面位置決定部1422によって通知される位置にマーク消しを表示し、その位置に表示されている線を消す。
更に、操作指示決定部1423は、マーク消し操作中であると判断している状態において、指先1がマーク消し開始操作と反対の方向に動いた場合に、マーク消しの選択を解除するマーク消し終了操作が行われたと判断する。操作指示決定部1423は、例えば、所定の時間内に、指先1が位置(xf2,yf2,zf2)から位置(xf2´,yf2´,zf2´)に移動した時に、手首の位置(xh2,yh2,zh2)を中心とする弧を想定し、角度θがある一定以上になった場合にマーク消し終了操作が行われたと判断する。ただし、xf2≒xf2´、yf2≒yf2´、zf2<zf2´とする。
操作指示決定部1423は、マーク消し終了操作が行われたことをマウスの挙動を管理するプログラムに通知する。マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知された位置においてマーク消し終了操作が行われたことをプレゼンテーションアプリ1424に通知する。プレゼンテーションアプリ1424は、画面位置決定部1422によって通知される位置にマウスカーソルを表示する。
マウスの挙動を管理するプログラムは、画面位置決定部1422によって通知された位置が管理している座標の外に存在する場合、マーク消し終了操作をプレゼンテーションアプリ1424に通知しない。
図8は、ポインティングプログラムの実行するポインティング処理のフローチャートの一例を示す。
CPU141は、図8に示すように、カメラ装置11とカメラ装置12とカメラ装置13に、目キャプチャマーカ21、22、31、32と、手首キャプチャマーカ23、33と、指キャプチャマーカ24、25、26、34、35、36とを装着した発表者を撮影させ、画像データを取得する(S11)。
そして、CPU141は、取得した画像データに基づいて、目キャプチャマーカ21、22、31、32と、手首キャプチャマーカ23、33と、指キャプチャマーカ24、25、26、34、35、36の位置を求める(S12)。
次に、CPU141は、目キャプチャマーカ21、22、31、32の位置に基づいて目の位置を求め、手首キャプチャマーカ23、33の位置に基づいて手首の位置を求める。CPU141は、目の位置と手首の位置を結ぶ直線の延長線とスクリーン15の交点をスクリーン15上の位置として求める(S13)。CPU141は、ステップS13で求めたスクリーン15上の位置に、マウスカーソルやマーカ等を表示する。
次に、CPU141は、手首の位置の変化と、3本の指の位置の変化を求める(S14)。
CPU141は、手首の位置の変化と、3本の指の位置の変化に基づいて、クリック操作(S15)、ドラッグ&ドロップ操作(S16)、マーク付け操作(マーク付け開始、マーク付け中、マーク付け終了)(S17)、マーク消し操作(マーク消し開始、マーク消し中、マーク消し終了)(S18)のいずれかの操作指示を求める。CPU141は、求められた操作指示に応じてプレゼンテーションアプリ1424の実行する処理を操作する。
その後、CPU141は、ステップS11に戻る。
なお、上記実施形態では、画面位置決定部1422は目の位置と手首の位置を結ぶ直線の延長線とスクリーン15の交点をスクリーン15上の位置として求めるとしたが、画面位置決定部1422は、例えば、目の位置と指先1の位置を結ぶ直線の延長線とスクリーン15の交点をスクリーン15上の位置として求めるとしても良い。
画面位置決定部1422は、1対の目キャプチャマーカ21、22と、手首キャプチャマーカ23と、3個の指キャプチャマーカ24、25、26とのうち、少なくとも2つの位置関係に基づいて、スクリーン15上の垂直方向の位置を求め、また、1対の目キャプチャマーカ31、32と、手首キャプチャマーカ33と、3個の指キャプチャマーカ34、35、36とのうち、少なくとも2つの位置関係に基づいて、スクリーン15上の水平方向の位置を求めることができる。
以上説明したように、本発明によれば、通常の表示装置を用いることができ、発表者はプレゼンテーションを行っている間、演台上を自由に動き回りながら、手を自由に動かすことができる。
本発明によれば、発表者は自身が指す方向にマウスカーソルを移動させ、手首及び指先の動きによってクリック操作、ドラッグ操作及びドロップ操作、資料上へのマーカ付け操作及びマーカ消し操作を行うことができる。
以上、本発明の実施形態について説明したが、設計上の都合やその他の要因によって必要となる様々な修正や組み合わせは、請求項に記載されている発明や発明の実施形態に記載されている具体例に対応する発明の範囲に含まれると理解されるべきである。
10…プレゼンテーションシステム、11、12、13…カメラ装置、14…コンピュータ、141…CPU、142…メモリ、1421…モーションキャプチャマーカ検出部、1422…画面位置決定部、1423…操作指示決定部、1424…プレゼンテーションアプリケーションプログラム、15…スクリーン、16…発表者、21、22、31、32…目キャプチャマーカ、23、33…手首キャプチャマーカ、24、34…指先1の指キャプチャマーカ、25、35…指先2の指キャプチャマーカ、26、36…指先3の指キャプチャマーカ、41、51、61…手首の位置、42、52、62…ある時刻の指先の位置、43、53、63…所定時間経過後の指先の位置

Claims (3)

  1. 画面を表示する画面表示装置と、
    発表者によって装着される複数のモーションキャプチャマーカと、
    前記複数のモーションキャプチャマーカを撮影し、当該複数のモーションキャプチャマーカが写っている画像を取得する撮影手段と、
    前記撮影手段によって取得された画像に基づいて前記画面表示装置によって表示されている画面上の位置を求める画面位置決定手段と、
    前記撮影手段によって取得された画像に基づいて所定の操作を指示する操作指示を求める操作指示決定手段と、
    を備えることを特徴とするプレゼンテーションシステム。
  2. 前記撮影手段によって取得された画像に基づいて各モーションキャプチャマーカの位置を求めるモーションキャプチャマーカ検出手段を備え、
    前記画面位置決定手段が、前記モーションキャプチャマーカ検出手段によって求められた各モーションキャプチャマーカの間の位置の関係に基づいて前記画面上の位置を求め、
    前記操作指示決定手段が、前記モーションキャプチャマーカ検出手段によって求められた各モーションキャプチャマーカの位置の変化を求め、当該各モーションキャプチャマーカの位置の変化に基づいて前記操作指示を求める、
    ことを特徴とする請求項1に記載のプレゼンテーションシステム。
  3. 前記複数のモーションキャプチャマーカが、発表者の目の位置を検出するための1対の目キャプチャマーカと、発表者の左右いずれかの手首に装着されて当該手首の位置を検出するための手首キャプチャマーカと、前記手首キャプチャマーカが装着される手の複数の指に装着される複数の指キャプチャマーカとを含み、
    前記画面位置決定手段が、前記1対の目キャプチャマーカと、前記手首キャプチャマーカと、前記複数の指キャプチャマーカとのうち、少なくとも2つの位置の関係に基づいて、前記画面上の位置を求め、
    前記操作指示決定手段が、前記手首キャプチャマーカの位置の変化と、前記複数の指キャプチャマーカの位置の変化とに基づいて、クリック、ドラッグ、ドロップ、マーク付け開始、マーク付け中、マーク付け終了、マーク消し開始、マーク消し中およびマーク消し終了のいずれかの操作指示を求める、
    ことを特徴とする請求項1又は2に記載のプレゼンテーションシステム。
JP2009220396A 2009-09-25 2009-09-25 プレゼンテーションシステム Withdrawn JP2011070368A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009220396A JP2011070368A (ja) 2009-09-25 2009-09-25 プレゼンテーションシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009220396A JP2011070368A (ja) 2009-09-25 2009-09-25 プレゼンテーションシステム

Publications (1)

Publication Number Publication Date
JP2011070368A true JP2011070368A (ja) 2011-04-07

Family

ID=44015606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009220396A Withdrawn JP2011070368A (ja) 2009-09-25 2009-09-25 プレゼンテーションシステム

Country Status (1)

Country Link
JP (1) JP2011070368A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142695A (ja) * 2013-01-22 2014-08-07 Ricoh Co Ltd 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
CN104199549A (zh) * 2014-08-29 2014-12-10 福州瑞芯微电子有限公司 人机交互式虚拟触控装置、系统及方法
JP2015177432A (ja) * 2014-03-17 2015-10-05 京セラドキュメントソリューションズ株式会社 キューポイント制御装置およびキューポイント制御プログラム
JP2019012485A (ja) * 2017-07-01 2019-01-24 株式会社ラブ・ボート ユーザインターフェース
JP2019200502A (ja) * 2018-05-15 2019-11-21 Kddi株式会社 ユーザの注視点を推定する注視点推定装置、プログラム及び方法
JP2020190941A (ja) * 2019-05-22 2020-11-26 株式会社Soken ポインティング入力装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142695A (ja) * 2013-01-22 2014-08-07 Ricoh Co Ltd 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
JP2015177432A (ja) * 2014-03-17 2015-10-05 京セラドキュメントソリューションズ株式会社 キューポイント制御装置およびキューポイント制御プログラム
US9502076B2 (en) 2014-03-17 2016-11-22 Kyocera Document Solutions Inc. Cue point control apparatus and recording medium that facilitate search of cue point during playback
CN104199549A (zh) * 2014-08-29 2014-12-10 福州瑞芯微电子有限公司 人机交互式虚拟触控装置、系统及方法
JP2019012485A (ja) * 2017-07-01 2019-01-24 株式会社ラブ・ボート ユーザインターフェース
JP2019200502A (ja) * 2018-05-15 2019-11-21 Kddi株式会社 ユーザの注視点を推定する注視点推定装置、プログラム及び方法
JP2020190941A (ja) * 2019-05-22 2020-11-26 株式会社Soken ポインティング入力装置

Similar Documents

Publication Publication Date Title
KR102098277B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP2017199379A (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
CN104166509B (zh) 一种非接触式屏幕交互方法及系统
KR101446902B1 (ko) 사용자 인터랙션 장치 및 방법
JP2011070368A (ja) プレゼンテーションシステム
US10276133B2 (en) Projector and display control method for displaying split images
JP2015118531A (ja) 表示制御装置およびプログラム
JP2011043876A (ja) 画像表示装置
US20150153834A1 (en) Motion input apparatus and motion input method
US20150346825A1 (en) Systems and methods for enabling fine-grained user interactions for projector-camera or display-camera systems
JP2012185630A (ja) 投影装置
JP6079695B2 (ja) 画像表示撮影システム、撮影装置、表示装置、画像の表示および撮影の方法、およびコンピュータープログラム
JP5817149B2 (ja) 投影装置
JP2012238293A (ja) 入力装置
JP2010205223A (ja) 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP6529332B2 (ja) 電子機器およびその制御方法
KR20160027732A (ko) 디스플레이 디바이스 및 그 제어 방법
US9406136B2 (en) Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person
JP2016091355A (ja) 表示装置、プロジェクターおよび表示制御方法
TW201337639A (zh) 指向性影像操控裝置及其方法
JP6000553B2 (ja) 情報処理装置及びその制御方法
WO2019043854A1 (ja) 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム
JP4674627B2 (ja) 情報処理装置、遠隔指示システム及びプログラム
CN108196676A (zh) 跟踪识别方法及系统

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121204