JP5621464B2 - 動作検出装置、記録システム及びプログラム - Google Patents

動作検出装置、記録システム及びプログラム Download PDF

Info

Publication number
JP5621464B2
JP5621464B2 JP2010214076A JP2010214076A JP5621464B2 JP 5621464 B2 JP5621464 B2 JP 5621464B2 JP 2010214076 A JP2010214076 A JP 2010214076A JP 2010214076 A JP2010214076 A JP 2010214076A JP 5621464 B2 JP5621464 B2 JP 5621464B2
Authority
JP
Japan
Prior art keywords
recording
state
data
unit
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010214076A
Other languages
English (en)
Other versions
JP2012070259A (ja
Inventor
湯澤 秀人
秀人 湯澤
智之 庄谷
智之 庄谷
池田 仁
仁 池田
竹内孝行
孝行 竹内
石井 努
努 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2010214076A priority Critical patent/JP5621464B2/ja
Priority to US13/007,233 priority patent/US20120075206A1/en
Publication of JP2012070259A publication Critical patent/JP2012070259A/ja
Application granted granted Critical
Publication of JP5621464B2 publication Critical patent/JP5621464B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Drawing Aids And Blackboards (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、動作検出装置、記録システム及びプログラムに関する。
いわゆる電子黒板のように、筆記により書き込まれた情報(文字や画像)をデータとして記録する記録媒体がある。また、記録媒体又は筆記具に特定の機能を付与することにより、書き込まれた情報やその情報を書き込んだ者を認識する技術が知られている(例えば、特許文献1〜5参照)。
特開2000−148396号公報 特開2001−231765号公報 特開2001−249761号公報 特開2005−190253号公報 特開2006−302046号公報
本発明の目的は、記録者が用いる記録媒体や筆記具がどのような機能を有するかによらずに、記録者の記録に関連する状態に応じて出力データを作成できるようにすることにある。
本発明の請求項1に係る動作検出装置は、記録者が情報の記録に用いる筆記具と独立に設けられた第1センサから出力される第1データであって、前記記録者の前記筆記具の持ち手の状態に対応する前記第1データに応じて、前記記録者の前記筆記具の持ち手の状態を検出する第1検出手段と、前記記録者が情報の記録に用いる記録媒体と独立に設けられた第2センサから出力される第2データに応じて、前記記録媒体と前記記録者の距離を検出する第2検出手段と、前記記録者の状態を判断する判断手段であって、前記第1検出手段により検出された前記記録者の持ち手の状態があらかじめ決められた状態を示し、かつ、前記第2検出手段により検出された前記記録媒体と前記記録者の距離があらかじめ決められた閾値以下である場合に、前記記録者の状態を、前記記録媒体に情報を記録する状態であると判断する判断手段と、前記判断手段による前記記録者の状態の判断結果に応じて出力データを作成する出力データ作成手段とを備える。
本発明の請求項2に係る動作検出装置は、請求項1に記載の構成において、前記第1検出手段は、前記第1データに基づき前記持ち手の鉛直方向に対する傾きを検出し、前記判断手段は、前記第1検出手段により検出された前記傾きがある角度以下であり、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記記録媒体に情報を記録する状態であると判断する構成を有する。
本発明の請求項3に係る動作検出装置は、請求項2に記載の構成において、前記記録媒体は、第1記録媒体と第2記録媒体とを含み、前記判断手段は、前記第1検出手段により検出された前記傾きがある角度以下であり、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記第1記録媒体に情報を記録する状態であると判断し、前記第1検出手段により検出された前記傾きが前記ある角度より大きく、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記第2記録媒体に情報を記録する状態であると判断する構成を有する。
本発明の請求項4に係る動作検出装置は、請求項3に記載の構成において、前記第1検出手段は、前記傾きを検出するとともに、前記記録者による筆記動作に対応する第1データのパターンに基づき筆記動作を検出し、前記判断手段は、前記筆記動作が検出され、かつ、検出された前記傾きがある角度以下である場合において、前記第2検出手段により検出された距離が前記閾値以下であるとき、前記記録者が前記第1記録媒体に情報を記録する状態であると判断する構成を有する。
本発明の請求項5に係る動作検出装置は、請求項1ないし4のいずれかに記載の構成において、前記第1検出手段及び前記第2検出手段の検出対象である前記記録者を識別する識別手段を備え、前記判断手段は、前記識別手段により識別された記録者に応じて、前記閾値を異ならせる構成を有する。
本発明の請求項6に係る動作検出装置は、請求項4に記載の構成において、前記第1検出手段及び前記第2検出手段の検出対象である前記記録者を識別する識別手段を備え、前記判断手段は、前記識別手段により識別された記録者に応じて、前記パターンを異ならせる構成を有する。
本発明の請求項に係る記録システムは、請求項1に記載の第1センサ及び第2センサと、請求項1ないしのいずれかに記載の動作検出装置と、前記記録者により前記記録媒体に記録された情報を取得する情報取得手段と、前記出力データ作成手段により作成された出力データに基づく情報を記憶する記憶手段とを備え、前記出力データ作成手段は、前記判断手段による前記記録者の状態の判断結果に応じて、前記記録者があらかじめ定めた状態である場合に限り、前記情報取得手段により取得された情報と前記判断結果とに基づく前記出力データを作成し、前記記憶手段は、前記出力データ作成手段により作成された前記出力データに基づき、前記情報取得手段により取得された情報を前記判断手段による判断結果と対応付けて記憶する構成を有する。
本発明の請求項に係るプログラムは、コンピュータに、コンピュータに、記録者が情報の記録に用いる筆記具と独立に設けられた第1センサから出力される第1データであって、前記記録者の前記筆記具の持ち手の状態に対応する前記第1データに応じて、前記記録者の前記筆記具の持ち手の状態を検出する第1検出ステップと、前記記録者が情報の記録に用いる記録媒体と独立に設けられた第2センサから出力される第2データに応じて、前記記録媒体と前記記録者の距離を検出する第2検出ステップと、前記記録者の状態を判断するステップであって、前記第1検出ステップにおいて検出された前記記録者の持ち手の状態があらかじめ決められた状態を示し、かつ、前記第2検出ステップにおいて検出された前記記録媒体と前記記録者の距離があらかじめ決められた閾値以下である場合に、前記記録者の状態を、前記記録媒体に情報を記録する状態であると判断する判断ステップと、前記判断ステップにおける前記記録者の状態の判断結果に応じて出力データを作成する出力データ作成ステップとを実行させるためのものである。
本発明の請求項1、に記載の構成によれば、記録者が用いる記録媒体や筆記具がどのような機能を有するかによらずに、記録者の記録に関連する状態に応じて出力データを作成することが可能である。
本発明の請求項2に記載の構成によれば、記録面が水平に対して垂直ないし垂直に近い状態になされたホワイトボード等の記録媒体に情報が記録されている状態を判断することが可能である。
本発明の請求項3に記載の構成によれば、傾きが異なる2つの記録媒体に情報が記録されている状態をそれぞれ区別して判断することが可能である。
本発明の請求項4に記載の構成によれば、ホワイトボード等の記録媒体に実際に筆記が行われている状態とそうでない状態とを区別して判断することが可能である。
本発明の請求項5に記載の構成によれば、判断手段が判断に用いる閾値を記録者毎に異ならせない場合に比べ、記録者の筆記の態様の個人差に起因する判断の誤りが生じることを少なくすることが可能である。
本発明の請求項6に記載の構成によれば、判断手段が判断に用いるパターンを記録者毎に異ならせない場合に比べ、記録者の筆記の態様の個人差に起因する判断の誤りが生じることを少なくすることが可能である。
本発明の請求項に記載の構成によれば、記録者の状態の判断結果に応じない場合と比較して、参照される頻度が低い情報の記録を減らすことが可能である。
室内の様子を示す模式図 記録システムの全体構成を示すブロック図 情報処理装置のハードウェア構成を示すブロック図 情報処理装置の機能的構成を示す機能ブロック図 情報処理装置によるデータ記録処理を示すフローチャート 情報処理装置によるデータ検索処理を示すフローチャート データ検索処理において表示部により表示される画面の一例を示す図 データ検索処理において表示部により表示される画面の一例を示す図
[実施形態]
図1は、本発明の一実施形態に係る室内の様子を示す模式図であり、例えば、オフィス内の会議室などの様子である。図1に示すように、この室内には、複数のユーザUa、Ub、Ucが在室している。また、室内には、ホワイトボード910とテーブル900とが配置されている。テーブル900の上には、情報処理装置100と、カメラ300と、マイクロホン400と、ノート920とが置かれている。
ホワイトボード910は、ユーザUa、Ub、Ucが筆記具930によって情報を記録するための記録媒体である。ホワイトボード910の記録面(情報が記録される面)は、室内の水平な床面に対して垂直な状態に保たれている。一方、ノート920は、ユーザUa、Ub、Ucによって情報が記録される記録媒体であるが、その記録面は、ホワイトボード910の記録面よりも水平に近い状態に保たれている。ノート920は、水平な天板を有するテーブル900の上に置かれることにより、かかる状態に保たれている。ホワイトボード910は、本発明に係る第1記録媒体の一例に相当し、ノート920は、本発明に係る第2記録媒体の一例に相当する。
なお、ホワイトボード910の記録面は、床面に対して完全に垂直である必要はない。ホワイトボード910の記録面は、その傾きがノート920の記録面と区別し得る程度に相違していれば、鉛直方向に対して傾いていてもよい。すなわち、ホワイトボード910の記録面は、ノート920の記録面よりは鉛直に近い状態にあり、ノート920の記録面は、ホワイトボード910の記録面よりは水平に近い状態にある。
筆記具930は、情報を記録するための道具であり、ユーザUa、Ub、Ucが手に持って使用するものである。筆記具930は、例えば、水性ペンである。なお、筆記具930は、ホワイトボード910に筆記するためのもの(例えば、ホワイトボード用のマーカー)とノート920に筆記するためのもの(例えば、鉛筆やボールペン)とが別個にあってもよい。筆記具930の色材(顔料、インク等)は、ホワイトボード910やノート920に記録した情報を消去し得るものであると、より望ましい。
ユーザUa、Ub、Ucは、ホワイトボード910やノート920に情報を記録する者である。また、ユーザUa、Ub、Ucは、センサユニット200を装着している。センサユニット200は、ユーザUa、Ub、Ucに関するさまざまな情報を出力する。本実施形態において、センサユニット200は、腕時計やブレスレットのような形状を有しており、前腕部の手首周辺に装着されるものであるとする。
なお、以下において、ユーザUa、Ub、Ucは、各人の区別が不要な場合には「ユーザU」と総称されることがある。また、ユーザUのうち、ホワイトボード910やノート920に情報を記録している者(あるいは記録しようとしている者)を他の者と区別する場合には、これを「記録者」という。また、ユーザUの総数は、図示した人数(3人)に限定されず、これより多くても少なくてもよい。
図2は、本実施形態の記録システム10の全体構成を示すブロック図である。記録システム10は、上述した情報処理装置100、センサユニット200、カメラ300及びマイクロホン400に加え、データベース500と、ネットワーク600とを備える。なお、データベース500及びネットワーク600は、上述した室内になくてもよい。
情報処理装置100は、センサユニット200、カメラ300、マイクロホン400及びデータベース500と通信を行い、ユーザUに関する情報(記録に関連する情報)を記録する。情報処理装置100は、センサユニット200、カメラ300及びマイクロホン400からデータを受信することにより、ユーザUの記録に関連する状態を判断し、その判断結果に応じた処理を実行する。情報処理装置100は、かかる処理の一例として、記録者であるユーザUの記録に関連する情報を作成してデータベース500に送信する。情報処理装置100は、例えば、パーソナルコンピュータ(PC)である。
図3は、情報処理装置100のハードウェア構成を示すブロック図である。情報処理装置100は、図3に示すように、制御部110と、記憶部120と、第1通信部130と、第2通信部140と、第3通信部150と、操作部160と、表示部170と、音声再生部180とを備える。
制御部110は、情報処理装置100の各部の動作を制御する手段である。制御部110は、CPU(Central Processing Unit)等の演算処理装置と、主記憶装置に相当する記憶手段(メインメモリ)とを備え、プログラムを実行することによって本発明に係る動作検出装置として機能する。制御部110は、かかる動作検出装置として機能することにより、ユーザUの状態を示す状態データを生成して出力する。記憶部120は、ハードディスク等の補助記憶装置に相当する記憶手段を備え、制御部110に用いられるデータ(プログラム等)を記憶する。なお、状態データについては、後に詳述される。
第1通信部130は、ネットワーク600に接続し、データベース500と通信するための手段である。第2通信部140は、センサユニット200と通信するための手段である。第3通信部150は、カメラ300及びマイクロホン400と通信するための手段である。第2通信部140は、ユーザUの動きを妨げぬよう、無線通信を行うものであることが望ましい。一方、第1通信部130及び第3通信部150は、有線又は無線のいずれの通信手段であってもよい。
操作部160は、操作者による操作を受け付ける手段である。また、操作部160は、操作者による操作に応じたデータ(以下「操作データ」という。)を制御部110に供給する。操作部160は、例えば、キーボードやマウスを含んで構成される。なお、操作者は、ユーザUのいずれかであってもよいが、ユーザU以外の者であってもよい。表示部170は、情報を表示する手段である。表示部170は、制御部110から表示データを供給されると、表示データに応じた文字や画像を表示する。表示部170は、例えば、液晶ディスプレイであるが、室内の壁やホワイトボード910に映像を投影するプロジェクタであってもよい。音声再生部180は、音声を再生する手段である。音声再生部180は、例えば、スピーカを備え、制御部110から供給された音声データに応じた音声を再生する。
センサユニット200は、ユーザUに関する情報を取得するための複数のセンサを一体に構成したものである。センサユニット200は、より詳細には、加速度センサ210と、距離センサ220と、脈拍センサ230と、発汗センサ240と、送信部250とを備える。ここにおいて、加速度センサ210は、本発明に係る第1センサの一例に相当するものである。また、距離センサ220は、本発明に係る第2センサの一例に相当するものである。
加速度センサ210は、記録者の筆記具930の持ち手の状態に応じたデータを出力するセンサである。加速度センサ210が出力するデータのことを、以下においては加速度データという。本実施形態において、加速度センサ210は、いわゆる3軸加速度センサであり、互いに直交する3方向の加速度をそれぞれ計測する。なお、ここにおいて、記録者の持ち手とは、記録者の筆記具930を持っている方の手(本実施形態において、より詳しくは前腕部の手首周辺)のことであり、右手と左手のいずれであってもよい。なお、加速度データが示す加速度には、記録者の持ち手の動きに応じた加速度に加え、重力加速度が含まれる。加速度データは、本発明に係る第1データの一例に相当するものである。
距離センサ220は、記録者と当該記録者の持ち手に近接する物体の距離を計測するセンサである。距離センサ220が計測して出力するデータのことを、以下においては距離データという。距離データは、本発明に係る第2データの一例に相当するものである。本実施形態の距離センサ220は、赤外線を照射し、その赤外線が照射された方向にある物体(ホワイトボード910等)からの反射光を受光することにより当該センサと当該物体の距離を計測する。したがって、ここでいう物体と記録者の距離とは、より厳密にいえば、物体と距離センサ220の距離のことである。センサユニット200において、距離センサ220は、記録者がホワイトボード910に筆記するときにホワイトボード910と向き合う位置に設けられている。
脈拍センサ230は、ユーザUの脈拍数を計測するセンサである。脈拍センサ230が計測して出力するデータのことを、以下においては脈拍データという。発汗センサ240は、記録者の発汗量や発汗速度等の発汗に関する量を計測するセンサである。発汗センサ240が計測して出力するデータのことを、以下においては発汗データという。発汗センサ240は、手首ではなく、発汗に関する量をより計測しやすい位置(例えば、掌など)に貼り付けられる構成であってもよい。
なお、脈拍センサ230及び発汗センサ240は、ユーザUが筆記具930による記録を行っていないときにも計測を行うようにしてもよい。
送信部250は、状態データを情報処理装置100に送信する。また、送信部250は、ユーザUを識別するための識別データをあわせて送信する。なお、送信部250は、状態データや識別データとともに、加速度データ、距離データ、脈拍データ及び発汗データ(又はこれらのデータのいずれか)を送信してもよい。以下においては、送信部250により送信されるこれらのデータを総称して、「ユーザデータ」という。送信部250は、例えば、Bluetooth(登録商標)等のあらかじめ決められた無線通信規格に準拠した方法で情報処理装置100と通信を行う。Bluetoothの場合、ユーザUを識別するための識別データには、いわゆるPINコード(パスキーともいう。)が一例として該当する(もちろん、他のデータを識別データとして用いてもよい。)。
カメラ300は、ホワイトボード910の記録面を撮影し、撮影により得られた画像データを情報処理装置100に送信する。カメラ300は、静止画と動画のいずれを撮影する手段であってもよい。カメラ300は、ホワイトボード910に記録された情報を画像データとして取得するものである。すなわち、カメラ300は、本発明に係る情報取得手段の一例に相当するものである。カメラ300は、撮影により得られた画像データからホワイトボード910の記録面に記録された文字が判読できるような解像度であることが望ましい。また、マイクロホン400は、室内の音声を収音し、音声データを情報処理装置100に送信する。なお、カメラ300及びマイクロホン400は、一体に構成されていてもよいし、情報処理装置100の一部であってもよい。また、例えば、いわゆるカメラ付き携帯電話機を情報処理装置100に有線又は無線で接続することにより、これがカメラ300及びマイクロホン400として用いられるようにしてもよい。
ネットワーク600は、情報処理装置100とデータベース500とを接続するための通信ネットワークである。ネットワーク600は、例えば、インターネットやLAN(Local Area Network)である。
データベース500は、ユーザデータと、カメラ300から送信された画像データと、マイクロホン400から送信された音声データとを記憶する。また、データベース500は、これらのデータを検索して出力する検索機能を有する。かかる機能は、情報処理装置100や他のコンピュータ装置からの要求に応じて、ユーザデータ、画像データ及び音声データのうちの必要なデータを検索して出力するものである。データベース500は、本発明に係る記憶手段の一例に相当するものである。
記録システム10のハードウェア構成は、以上のとおりである。記録システム10においては、この構成のもと、ユーザUの状態の判断及び記録が行われる。ユーザUの状態には、記録者の記録に関連する状態が少なくとも含まれるが、記録そのものには関連しない状態(例えば、ユーザUが何もしていない状態や、ユーザUがホワイトボード910を指差している状態)が含まれてもよい。ユーザUの状態の判断及び記録は、情報処理装置100によって行われる。
図4は、情報処理装置100の機能的構成を示す機能ブロック図である。情報処理装置100の制御部110は、あらかじめ記憶されたプログラムを実行することによって、図4に示す取得部111、第1検出部112、第2検出部113、識別部114、判断部115及び出力処理部116の各部に相当する機能を実現する。
取得部111は、第2通信部140を介して、センサユニット200から出力されたデータを取得する。すなわち、取得部111は、加速度データ、距離データ、脈拍データ、発汗データ及び識別データを取得する。また、取得部111は、第3通信部150を介して、カメラ300及びマイクロホン400から出力されたデータを取得する。すなわち、取得部111は、画像データ及び音声データを取得する。
第1検出部112は、取得部111により取得された加速度データを用いて、ユーザUの持ち手(センサユニット200が装着された側の手)の状態を検出する。本実施形態において、第1検出部112が検出する持ち手の状態は、持ち手の鉛直方向に対する傾きと筆記動作である。持ち手の鉛直方向に対する傾きは、加速度データから特定した重力加速度の方向に基づき検出する。持ち手の動作は、取得されたデータがあらかじめ決められたパターンに相当するか否かに基づき検出する。第1検出部112は、本発明に係る第1検出手段の一例に相当するものである。
第2検出部113は、取得部111により取得された距離データを用いて、ユーザUの持ち手とその持ち手に近接している物体の距離を検出する。ここにおいて、ユーザUの持ち手に近接している物体とは、例えば、ホワイトボード910やノート920である。ただし、第2検出部113は、記録媒体(ホワイトボード910又はノート920)以外の他の物体との距離を検出する場合もある。第2検出部113は、本発明に係る第2検出手段の一例に相当するものである。
なお、第2検出部113は、記録媒体(ホワイトボード910又はノート920)の色や当該記録媒体にあらかじめ記された目印を認識する機能を有することにより、記録媒体を記録媒体以外の他の物体と区別して認識する可能性を向上させてもよい。
識別部114は、第1検出部112及び第2検出部113による検出対象となっているユーザUを識別する。識別部114は、取得部111により取得された識別データを用いてユーザUを識別する。識別部114は、あるユーザと他のユーザを区別するだけでもよいが、識別データとユーザUに関する情報(名前など)の対応付けをあらかじめ記憶しており、検出対象のユーザUが誰であるのかまで識別してもよい。なお、かかる対応付けは、記憶部120に記憶されており、必要に応じて識別部114(すなわち制御部110)が記憶部120から読み出すようになっていてもよい。識別部114は、本発明に係る識別手段の一例に相当するものである。
判断部115は、第1検出部112及び第2検出部113による検出結果を少なくとも用いて、ユーザUの状態を判断する。判断部115は、本実施形態においては、第1検出部112及び第2検出部113による検出結果に加え、識別部114によるユーザUの識別結果や、取得部111により取得された脈拍データや発汗データを用いてユーザUの状態を判断する。判断部115により判断される状態には、記録者の記録に関連する状態が含まれる。判断部115は、本発明に係る判断手段の一例に相当するものである。
判断部115により判断されるユーザUの状態は、本実施形態においては、「緊張してホワイトボード910に筆記している状態(状態1)」、「緊張せずにホワイトボード910に筆記している状態(状態2)」、「ノート920に筆記している状態(状態3)」、「筆記せずにホワイトボード910の近くにいる状態(状態4)」及び「その他の状態(状態5)」の5通りである。ここにおいて、状態4、すなわち「持ち手を上げてホワイトボード910の近くにいる状態」とは、例えば、ユーザUがホワイトボード910に記録を始めようとしている状態や、ユーザUがホワイトボード910を単に指差しているだけの状態などであり、ユーザUが筆記を行っていない状態である。また、状態5、すなわち「その他の状態」とは、例えば、ユーザUが発言をしたり、他のユーザUの発言を聞いたり、ホワイトボード910に記録された情報を閲覧したりしている状態のことである。判断部115は、このようにユーザUの状態を判断すると、その判断結果に応じた状態データを出力処理部116に供給する。判断部115が供給する状態データは、例えば、状態1であると判断したら「1」、状態2であると判断したら「2」、といったデータである。
出力処理部116は、判断部115による判断結果に基づく出力処理を実行する。本実施形態において、判断部115による判断結果に基づく出力処理には、データを作成及び出力してデータベース500に記録させる処理が少なくとも含まれる。また、出力処理部116は、判断部115による判断結果に基づく出力処理として、その判断結果を表示部170に画像で表示させたり、音声再生部180によって音声出力を行って通知したりする、といった具合に、操作者やユーザUに判断結果を報知する出力処理を行ってもよい。出力処理部116は、本発明に係る出力データ作成手段の一例に相当するものである。
図5は、情報処理装置100によるデータベース500にデータを記録させる処理(以下「データ記録処理」という。)を示すフローチャートである。このデータ記録処理において、情報処理装置100の制御部110は、まず、第3通信部150を介して、カメラ300及びマイクロホン400から出力された画像データ及び音声データの取得を開始し(ステップSa1)、順次、記憶部120に一時的に記憶させる(ステップSa2)。制御部110は、画像データ及び音声データが供給されなくなるまで、これらのデータの一時記憶を続ける。
次に、制御部110は、第2通信部140を介してユーザデータが取得されたか否かを判断する(ステップSa3)。情報処理装置100は、センサユニット200が通信可能な範囲に入ってきたり、あるいはユーザUがセンサユニット200に電源を投入したりすると、ユーザデータの受信を開始する。制御部110は、ユーザデータを取得すると、ユーザデータに含まれる識別データに基づいてユーザUを識別し(ステップSa4)、ユーザデータをユーザUと対応付けて記憶部120に一時的に記憶させる(ステップSa5)。
次に、制御部110は、ユーザデータに含まれる加速度データに基づき、ユーザUの持ち手の動きを検出し、持ち手に何らかの動きがあるか否かを判断する(ステップSa6)。このとき、制御部110は、加速度データから重力加速度以外の加速度を特定し、持ち手に上げ下げや微小な振動がないか判断する。制御部110は、例えば、あらかじめ決められた閾値以上の重力加速度以外の加速度があらかじめ決められた時間内に特定された場合に、持ち手に何らかの動きがあったと判断する。
持ち手に何らかの動きがあったと判断した場合(ステップSa6:YES)、制御部110は、ユーザデータに含まれる距離データに基づき、持ち手が何らかの物体(ホワイトボード910、ノート920、テーブル900など)に近接しているか否かを判断する(ステップSa7)。具体的には、制御部110は、距離データにより検出される距離があらかじめ決められた閾値以下であるか否かを判断する。本実施形態において、持ち手と物体の距離に関する閾値は、ユーザが持ち手を物体に近づけ、筆記しているとみなせる程度の値であり、例えば、5cm以上30cm以下である。
距離データにより検出される距離があらかじめ決められた閾値以下であると判断した場合(ステップSa7:YES)、制御部110は、加速度データから筆記動作に対応するデータのパターンが検出されたか否かを判断する(ステップSa8)。ここにおいて、筆記動作に対応するデータのパターンとは、記録者が記録媒体に筆記するときに表れる特徴的なデータのパターンをいう。かかるデータのパターンは、例えば、加速度が水平方向や鉛直方向に小刻みに増減するものである。このデータのパターンは、複数の記録者による筆記動作を記録し、統計的に処理したりすることによって、あらかじめ特定されているものとする。制御部110は、筆記動作に対応するデータのパターンが検出された場合には、ユーザUが記録者であり、ホワイトボード910やノート920に筆記を行っている状態であるとみなす。
制御部110は、筆記動作に対応するデータのパターンが検出された場合(ステップSa8:YES)と、そうでない場合(ステップSa8:NO)の双方において、加速度データから特定した重力加速度の方向に基づき記録者の持ち手の傾きを判断する(ステップSa9a)。本実施形態において、制御部110は、持ち手が鉛直方向に対してどの程度傾いているかを判断する。以下においては、持ち手の傾きに相当する角度を「θ」と表記する。ここにおいて、傾きθは、持ち手の前腕部が鉛直方向に対してなす角度に相当し、0°の場合に、前腕部が鉛直方向に対して平行であり、90°の場合に、前腕部が水平方向に対して平行であるとみなす。
制御部110は、傾きθが0°≦θ≦θthを満たす場合に、持ち手が鉛直に近い状態であると判断し、傾きθがθ>θthを満たす場合に、持ち手が水平に近い状態であると判断する。ここにおいて、θthは、傾きθについてあらかじめ決められた閾値である。閾値θthは、例えば、30°以上60°以下程度である。ユーザUの筆記の仕方には個人差があるため、閾値θthは、広範囲の個人差に対応し得るようにすれば、比較的大きい値にすることが望ましい。しかしながら、閾値θthを大きくし、90°に近づけると、ノート920に筆記している状態がホワイトボード910に筆記している状態であると誤って判断されるおそれがある。
制御部110は、筆記動作に対応するデータのパターンが検出された場合(ステップSa8:YES)において、傾きθが0°≦θ≦θthを満たすとき(ステップSa9a:YES)、ユーザデータに含まれる脈拍データと発汗データとに基づいて、記録者が緊張した状態であるか否かを判断する(ステップSa10)。制御部110は、例えば、脈拍データにより計測される脈拍数と発汗データにより計測される発汗に関する量の少なくともいずれかがあらかじめ決められた閾値以上である場合には、記録者が緊張した状態であると判断し、そうでない場合には、記録者が緊張していない状態であると判断する。なお、制御部110は、脈拍数と発汗に関する量の双方が閾値以上である場合を緊張した状態であるとみなしてもよい。
制御部110は、記録者が緊張した状態であると判断した場合(ステップSa10:YES)、ユーザUの状態を状態1、すなわち「記録者が緊張してホワイトボード910に筆記している状態」であると判断する(ステップSa11)。一方、制御部110は、記録者が緊張していない状態であると判断した場合(ステップSa10:NO)、ユーザUの状態を状態2、すなわち「記録者が緊張せずにホワイトボード910に筆記している状態」であると判断する(ステップSa12)。
一方、制御部110は、筆記動作に対応するデータのパターンが検出された場合(ステップSa8:YES)において、傾きθが0°≦θ≦θthを満たさないとき(ステップSa9a:NO)、持ち手が状態1の場合よりも水平に近い状態であることから、記録者が筆記動作を行っているが、ホワイトボード910と異なる記録媒体に筆記していると判断する。このとき、本実施形態においては、制御部110は、ユーザUの状態を状態3、すなわち「記録者がノート920に筆記している状態」であると判断する(ステップSa13)。なぜならば、ノート920は、ホワイトボード910に比べ、記録面が水平に近い状態になっているからである。
また、制御部110は、筆記動作に対応するデータのパターンが検出されなかった場合(ステップSa8:NO)において、傾きθが0°≦θ≦θthを満たすとき(ステップSa9b:YES)、記録者が筆記動作を行っていないが、持ち手が鉛直に近い状態、すなわち、ホワイトボード910に筆記するときのような状態になっていると判断する。このとき、制御部110は、ユーザUの状態を状態4、すなわち「ユーザUが筆記せずにホワイトボード910の近くにいる状態」であると判断する(ステップSa14)。
なお、制御部110は、持ち手に動きがないと判断した場合(ステップSa6:NO)、距離データにより検出される距離があらかじめ決められた閾値を超えると判断した場合(ステップSa7:NO)、筆記動作に対応するデータのパターンが検出されなかった場合(ステップSa8:NO)において、傾きθが0°≦θ≦θthを満たさないとき(ステップSa9b:NO)のいずれかの場合、ユーザUの状態を状態5、すなわち「その他の状態」であると判断する(ステップSa15)。
このように、ユーザUの状態を状態1ないし5のいずれかであると判断したら、制御部110は、記憶部120に一時記憶させた画像データ及び音声データを読み出し、識別データや状態データとともに出力してデータベース500に記録させる(ステップSa16)。制御部110は、記憶部120に記憶された画像データ及び音声データのすべてをデータベース500に記録させてもよいが、ユーザUが特定の状態である場合に限って記録を行ってもよい。例えば、制御部110は、ユーザUが何らかの記録媒体(ホワイトボード910又はノート920)に記録を行っている状態、すなわち状態1、2又は3の場合に限って画像データ及び音声データが記録されるようにしてもよい。この場合、制御部110は、ユーザUの状態が状態1、2又は3であると判断された前後のあらかじめ決められた時間(例えば、状態の判断後の10分間や、状態の判断の5分前から判断後の10分間など)の画像データ及び音声データを抜き出し、抜き出した部分的なデータのみをデータベース500に出力してもよい。また、例えば、状態1又は状態2のいずれかの状態から状態1及び状態2のいずれでもない状態に移行した時点を基準としたあらかじめ定められた時点に取得された画像データと、記録者の識別データとを対応付けたデータをデータベース500に出力して記録させるようにしてもよい。
なお、ステップSa16において、制御部110は、識別データ及び状態データだけでなく、他のユーザデータをあわせてデータベース500に記録させてもよい。
以上のように、記録システム10においては、上述したデータ記録処理が実行されることによって、ユーザUの状態に応じた画像データや音声データがデータベース500に記録される。情報処理装置100の操作者は、必要に応じて、データベース500に記録されたデータを受信して再生する。操作者は、室内で行われていたことを振り返ったり思い出したりする必要があるときに、データベース500の検索機能を利用して、必要なデータを検索し、ユーザUがホワイトボード910に記録した情報やそのときの音声などを再生し、当時のことを確認する。
図6は、情報処理装置100によるデータの検索に関する処理(以下「データ検索処理」という。)を示すフローチャートである。このデータ検索処理において、情報処理装置100の制御部110は、まず、操作部160から検索キーを表す操作データを取得することにより、操作者から検索キーを受け付ける(ステップSb1)。検索キーは、例えば、時間、識別データ、状態データなどである。操作者は、例えば、ある時間に話されていたことや、その時間にホワイトボード910に記録されていた情報を知りたいときには、時間を検索キーに用いる。また、操作者は、あるユーザUがホワイトボード910に記録した情報を知りたいときには、識別データを検索キーに用い、あるユーザUが特定の状態(例えば、緊張した状態)にあるときにホワイトボード910に記録されていた情報を知りたいときには、識別データと状態データを組み合わせて検索キーに用いる。
制御部110は、検索キーを受け付けると、第1通信部130を介して、これをデータベース500に送信する(ステップSb2)。データベース500は、検索キーを受信すると、検索キーに合致したデータ(画像データ等)を読み出して情報処理装置100に送信する。制御部110は、データベース500から送信されたデータを第1通信部130を介して取得し(ステップSb3)、表示部170や音声再生部180に画像や音声を再生させる(ステップSb4)。なお、制御部110は、検索された画像や音声をつなぎ合わせ、特定の状態(例えば、状態1)であると判断されたときの画像や音声をひとまとめにして再生したり、特定のユーザUが筆記しているときの画像や音声をひとまとめにして再生したりしてもよい。
図7及び図8は、データ検索処理において表示部170により表示される画面の一例を示す図である。図7は、操作者が検索キーを入力するための画面を例示する図である。この例において、操作者は、特定のユーザUに関する画像や音声を検索する場合には、所望のユーザの名前をプルダウンメニューM1により選択する。また、操作者は、不特定のユーザUが特定の状態にあるときの画像や音声を検索する場合には、所望の状態をプルダウンメニューM2により選択する。さらに、操作者は、特定の日時の画像や音声を検索する場合には、所望の日時をプルダウンメニュー群M3により選択する。なお、検索キーの入力は、プルダウンメニューに限らず、テキストボックスやラジオボタン等の他のGUI(Graphical User Interface)ウィジェットによって受け付けられてもよい。操作者は、所望の検索キーを選択したら、検索ボタンB1をクリック等の操作により選択する。情報処理装置100は、検索ボタンB1を選択する操作を受け付けると、選択された検索キーをデータベース500に送信する。なお、いわゆるアンド検索(検索キーを複数組み合わせた検索)を行う場合には、情報処理装置100は、複数の検索キーを受け付け、受け付けた検索キーの組み合わせをデータベース500に送信する。
図8は、データ検索処理によって表示部170により再生される画像を例示する図である。この例において、情報処理装置100は、ホワイトボード910やその周辺を撮影した画像を表示領域A1に表示するとともに、日時やユーザUの名前などを表示領域A2に表示する。ここにおいて、アイコンI1は、ホワイトボード910に筆記している記録者の緊張の度合いを表す画像であり、その表示態様(色の違い、点滅の時間間隔、大きさなど)によって緊張の度合いを表す。なお、情報処理装置100は、表示領域A2を表示しなくてもよいし、他の情報を表示してもよい。例えば、情報処理装置100は、ユーザUの全員分の状態を名前とともに表示してもよい。
[変形例]
本発明の実施の態様は、上述した実施形態に限定されるものではなく、例えば、以下に示す変形例のようであってもよい。また、これらの変形例は、必要に応じて組み合わせて実施されてもよいものである。
(変形例1)
本発明において、ユーザ(又は記録者)の状態とは、上述した実施形態で例示されたものに限定されない。例えば、ユーザの状態は、緊張の度合いを3段階や5段階に分けて判断されてもよい。また、記録者が情報を記録する状態とは、記録者が現に筆記を行っている状態(例えば、上述した状態1、2及び3)だけでなく、記録者がこれから筆記を行おうとしている状態(例えば、上述した状態4)を含んでもよい。すなわち、本発明において、記録者が情報を記録する状態とは、当該記録者が現に記録している場合だけでなく、それから記録を開始する蓋然性が高い場合をも含み得るものである。
また、ユーザの状態は、緊張の有無を問わないものであってもよい。この場合、上述した状態1と状態2に相当する状態は、これらが区別されることなく、「記録者がホワイトボード910に筆記している状態」であるとみなされる。なお、この場合には、上述した脈拍センサ230と発汗センサ240に相当する構成が不要である。
(変形例2)
一般に、ユーザの筆記の態様には、癖や体格差に起因する個人差がある。例えば、ユーザには、文字を書く速度や、ホワイトボード910に筆記するときのホワイトボード910との距離に相違がある。そこで、情報処理装置100は、ユーザUの状態を判断する場合に用いるデータのパターンや閾値をユーザU毎に記憶し、識別部114により識別された記録者に応じてデータのパターンや閾値を異ならせてもよい。
(変形例3)
上述した実施形態において、出力処理部116は、本発明に係る出力処理手段の一例として機能するものである。しかしながら、本発明に係る出力処理手段は、判断手段(例えば、判断部115)による判断結果に基づく出力処理を実行するものであれば足り、当該出力処理がデータを記録する処理である必要はない。例えば、本発明は、判断手段による判断結果を示すデータ(例えば、状態データ)を外部装置に出力する手段として出力処理手段を構成し、かかる外部装置がデータの記録や検索に関する処理を行う態様であってもよい。
(変形例4)
本発明において、第1センサ及び第2センサは、これらが一体に構成されていなくてもよい。例えば、第1センサは、前腕部ではなく、手の平や手の甲に装着されてもよいし、第2センサは、ユーザの胴体に装着されてもよい。第2センサの位置は、ユーザの体や衣服の一部であればどのような位置であってもよいが(ただし、正面側であることが望ましい)、第1センサの位置は、持ち手の状態を検出可能な位置である必要がある。なお、持ち手の傾きに相当する角度として検出される角度は、第1センサが装着される位置に応じて異なり得る。よって、持ち手の傾きについて設定される閾値θthは、第1センサが装着される位置に応じて決められることが望ましい。
また、第1センサは、(ユーザ自身ではなく)筆記具に対して着脱する構成であってもよい。さらに、第2センサは、記録媒体(ホワイトボード等)に対して着脱する構成であってもよい。この場合、第2センサは、ユーザが近づいてきたことを検知するセンサであればよい。いずれの場合においても、第1センサや第2センサは、筆記具や記録媒体と独立に(すなわち分離可能に)設けられることが望ましい。なぜならば、第1センサや第2センサが筆記具や記録媒体そのものに分離できない状態で備わっていると、本発明を実施するために使用可能な筆記具や記録媒体が限定されるからである。これに対し、第1センサや第2センサが筆記具や記録媒体と独立に設けられる構成であると、使用可能な筆記具や記録媒体が制限されず、また、複数の筆記具を持ち替えて使用する場合においても、センサ自体は筆記具の数によらず1つで十分である。
さらに、第1センサ及び第2センサは、ユーザ毎に設けられずに、1つのセンサをユーザが付け替えることで共用されるものであってもよい。この場合、第1センサ及び第2センサは、上述した実施形態のセンサユニット200のように、一体化されていることが望ましい。また、上述した実施形態において、複数のユーザが1つのセンサユニット200を共用する場合には、センサユニット200を使用しているユーザを指定するための手段(ボタン等)を当該ユニットに設けるか、あるいは、情報処理装置100の操作者がユーザを確認し、操作部160を介して使用中のユーザが誰であるかを入力すればよい。なお、本発明に係る識別手段は、このようにして操作部160から供給される操作データに基づいてユーザを識別するものであってもよい。
(変形例5)
本発明に係る動作検出装置は、第1センサ及び第2センサの少なくともいずれかと一体に設けられる構成であってもよい。すなわち、本発明に係る動作検出装置は、上述した実施形態におけるセンサユニット200のようなユーザUに装着される装置に内蔵される構成であってもよい。上述した実施形態をこのように変形した場合、出力処理手段は、例えば、情報処理装置100に状態データを出力する処理を実行する手段として機能する。
(変形例6)
本発明に係る記録媒体は、ユーザにより記録された情報(すなわち、筆記の軌跡)を記憶し、これを情報処理装置等の外部装置に送信する構成を有していてもよい。かかる記録媒体を用いる場合には、上述したカメラ300に相当する構成を記録媒体自体が備えるため、かかる構成を別途設ける必要がなくなる。かかる記録媒体としては、例えば、記録面を光学的に読み取る機能を有するホワイトボードや、記録面に設けられたタッチスクリーン(タッチパネル)によって記録者の筆跡を認識する機能を有する表示装置(いわゆるタブレットPCや電子ペーパ)がこれに該当し得る。
(変形例7)
本発明において、記録媒体を撮影する撮影手段や、音声を収音する収音手段は、必須の構成要件ではない。一方、かかる撮影手段や収音手段は、上述したように、携帯電話機等の携帯端末によって実現されてもよい。携帯端末が撮影手段や収音手段として機能する場合には、各ユーザが個別にこれを所持し、自身に必要な画像や音声のみが記録されるようにしてもよい。かかる場合には、撮影や収音の開始・終了は、ユーザの操作に応じて行われてもよい。
(変形例8)
本発明は、動作検出装置やこれを備える情報処理装置、さらには情報処理装置とデータベースとを備える記録システムやその記録方法として実施され得るものである。なお、本発明に係るデータベースに相当する記憶手段は、情報処理装置に備わっていてもよいし、ネットワークを介することなく情報処理装置に接続されていてもよい。また、本発明は、コンピュータを動作検出装置として機能させるためのプログラムや、かかるプログラムを記録した記録媒体の形態でも提供され得る。また、本発明に係るプログラムは、インターネット等の通信手段を介してコンピュータにダウンロードされてもよい。
10…記録システム、100…情報処理装置、110…制御部、120…記憶部、130…第1通信部、140…第2通信部、150…第3通信部、160…操作部、170…表示部、180…音声再生部、200…センサユニット、210…加速度センサ、220…距離センサ、230…脈拍センサ、240…発汗センサ、250…送信部、300…カメラ、400…マイクロホン、500…データベース、600…ネットワーク、910…ホワイトボード、920…ノート、930…筆記具、U、Ua、Ub、Uc…ユーザ

Claims (8)

  1. 記録者が情報の記録に用いる筆記具と独立に設けられた第1センサから出力される第1データであって、前記記録者の前記筆記具の持ち手の状態に対応する前記第1データに応じて、前記記録者の前記筆記具の持ち手の状態を検出する第1検出手段と、
    前記記録者が情報の記録に用いる記録媒体と独立に設けられた第2センサから出力される第2データに応じて、前記記録媒体と前記記録者の距離を検出する第2検出手段と、
    前記記録者の状態を判断する判断手段であって、前記第1検出手段により検出された前記記録者の持ち手の状態があらかじめ決められた状態を示し、かつ、前記第2検出手段により検出された前記記録媒体と前記記録者の距離があらかじめ決められた閾値以下である場合に、前記記録者の状態を、前記記録媒体に情報を記録する状態であると判断する判断手段と、
    前記判断手段による前記記録者の状態の判断結果に応じて出力データを作成する出力データ作成手段と
    を備えることを特徴とする動作検出装置。
  2. 前記第1検出手段は、前記第1データに基づき前記持ち手の鉛直方向に対する傾きを検出し、
    前記判断手段は、前記第1検出手段により検出された前記傾きがある角度以下であり、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記記録媒体に情報を記録する状態であると判断する
    ことを特徴とする請求項1に記載の動作検出装置。
  3. 前記記録媒体は、第1記録媒体と第2記録媒体とを含み、
    前記判断手段は、
    前記第1検出手段により検出された前記傾きがある角度以下であり、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記第1記録媒体に情報を記録する状態であると判断し、
    前記第1検出手段により検出された前記傾きが前記ある角度より大きく、かつ、前記第2検出手段により検出された距離が前記閾値以下である場合に、前記記録者が前記第2記録媒体に情報を記録する状態であると判断する
    ことを特徴とする請求項2に記載の動作検出装置。
  4. 前記第1検出手段は、前記傾きを検出するとともに、前記記録者による筆記動作に対応する第1データのパターンに基づき筆記動作を検出し、
    前記判断手段は、
    前記筆記動作が検出され、かつ、検出された前記傾きがある角度以下である場合において、前記第2検出手段により検出された距離が前記閾値以下であるとき、前記記録者が前記第1記録媒体に情報を記録する状態であると判断する
    ことを特徴とする請求項3に記載の動作検出装置。
  5. 前記第1検出手段及び前記第2検出手段の検出対象である前記記録者を識別する識別手段を備え、
    前記判断手段は、前記識別手段により識別された記録者に応じて、前記閾値を異ならせる
    ことを特徴とする請求項1ないし4のいずれかに記載の動作検出装置。
  6. 前記第1検出手段及び前記第2検出手段の検出対象である前記記録者を識別する識別手段を備え、
    前記判断手段は、前記識別手段により識別された記録者に応じて、前記パターンを異ならせる
    ことを特徴とする請求項4に記載の動作検出装置。
  7. 請求項1に記載の第1センサ及び第2センサと、
    請求項1ないしのいずれかに記載の動作検出装置と、
    前記記録者により前記記録媒体に記録された情報を取得する情報取得手段と、
    前記出力データ作成手段により作成された出力データに基づく情報を記憶する記憶手段と
    を備え、
    前記出力データ作成手段は、前記判断手段による前記記録者の状態の判断結果に応じて、前記記録者があらかじめ定めた状態である場合に限り、前記情報取得手段により取得された情報と前記判断結果とに基づく前記出力データを作成し、
    前記記憶手段は、前記出力データ作成手段により作成された前記出力データに基づき、前記情報取得手段により取得された情報を前記判断手段による判断結果と対応付けて記憶する
    ことを特徴とする記録システム。
  8. コンピュータに、
    記録者が情報の記録に用いる筆記具と独立に設けられた第1センサから出力される第1データであって、前記記録者の前記筆記具の持ち手の状態に対応する前記第1データに応じて、前記記録者の前記筆記具の持ち手の状態を検出する第1検出ステップと、
    前記記録者が情報の記録に用いる記録媒体と独立に設けられた第2センサから出力される第2データに応じて、前記記録媒体と前記記録者の距離を検出する第2検出ステップと、
    前記記録者の状態を判断するステップであって、前記第1検出ステップにおいて検出された前記記録者の持ち手の状態があらかじめ決められた状態を示し、かつ、前記第2検出ステップにおいて検出された前記記録媒体と前記記録者の距離があらかじめ決められた閾値以下である場合に、前記記録者の状態を、前記記録媒体に情報を記録する状態であると判断する判断ステップと、
    前記判断ステップにおける前記記録者の状態の判断結果に応じて出力データを作成する出力データ作成ステップと
    を実行させるためのプログラム。
JP2010214076A 2010-09-24 2010-09-24 動作検出装置、記録システム及びプログラム Expired - Fee Related JP5621464B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010214076A JP5621464B2 (ja) 2010-09-24 2010-09-24 動作検出装置、記録システム及びプログラム
US13/007,233 US20120075206A1 (en) 2010-09-24 2011-01-14 Motion detecting device, recording system, computer readable medium, and motion detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010214076A JP5621464B2 (ja) 2010-09-24 2010-09-24 動作検出装置、記録システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2012070259A JP2012070259A (ja) 2012-04-05
JP5621464B2 true JP5621464B2 (ja) 2014-11-12

Family

ID=45870133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010214076A Expired - Fee Related JP5621464B2 (ja) 2010-09-24 2010-09-24 動作検出装置、記録システム及びプログラム

Country Status (2)

Country Link
US (1) US20120075206A1 (ja)
JP (1) JP5621464B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102170321B1 (ko) * 2013-06-17 2020-10-26 삼성전자주식회사 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
JP6079695B2 (ja) * 2014-05-09 2017-02-15 コニカミノルタ株式会社 画像表示撮影システム、撮影装置、表示装置、画像の表示および撮影の方法、およびコンピュータープログラム
JP7247466B2 (ja) * 2018-03-23 2023-03-29 富士フイルムビジネスイノベーション株式会社 情報処理システムおよびプログラム
JP2020008724A (ja) * 2018-07-09 2020-01-16 富士ゼロックス株式会社 情報処理装置及びプログラム
JP6957695B1 (ja) * 2020-07-30 2021-11-02 株式会社ジンズホールディングス プログラム、情報処理方法、及び情報処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
JP3185505B2 (ja) * 1993-12-24 2001-07-11 株式会社日立製作所 会議録作成支援装置
JP3819654B2 (ja) * 1999-11-11 2006-09-13 株式会社シロク 指示体の識別機能を有する光デジタイザ
JP3936295B2 (ja) * 2002-05-28 2007-06-27 株式会社国際電気通信基礎技術研究所 データベース作成装置
US7565295B1 (en) * 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
US8542219B2 (en) * 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US20080055194A1 (en) * 2006-08-31 2008-03-06 Motorola, Inc. Method and system for context based user interface information presentation and positioning
JP2009004846A (ja) * 2007-06-19 2009-01-08 Hitachi Software Eng Co Ltd 電子黒板連携授業録画システム
JP2009033253A (ja) * 2007-07-24 2009-02-12 Sharp Corp 電子黒板装置
US8007110B2 (en) * 2007-12-28 2011-08-30 Motorola Mobility, Inc. Projector system employing depth perception to detect speaker position and gestures
US20090309853A1 (en) * 2008-06-13 2009-12-17 Polyvision Corporation Electronic whiteboard system and assembly with optical detection elements
US20100216508A1 (en) * 2009-02-23 2010-08-26 Augusta Technology, Inc. Systems and Methods for Driving an External Display Device Using a Mobile Phone Device

Also Published As

Publication number Publication date
US20120075206A1 (en) 2012-03-29
JP2012070259A (ja) 2012-04-05

Similar Documents

Publication Publication Date Title
KR101026630B1 (ko) 범용 컴퓨팅 장치
Kratz et al. HoverFlow: expanding the design space of around-device interaction
US10055563B2 (en) Air writing and gesture system with interactive wearable device
CN102362243B (zh) 多远程指向器、虚拟对象显示装置和虚拟对象控制方法
US9134800B2 (en) Gesture input device and gesture input method
Kim et al. The gesture watch: A wireless contact-free gesture based wrist interface
JP5621464B2 (ja) 動作検出装置、記録システム及びプログラム
JP5882220B2 (ja) 人間の動きに関連するキャラクタおよびコマンドを認識するためのハンドヘルドコンピュータシステムおよび技術
JP2012256378A (ja) 動き検知装置による携帯装置の制御システム、制御方法、データ入力システムおよびデータ入力方法
CN106468780B (zh) 可携带装置与相关的震动侦测方法
CN110333758A (zh) 用于控制多个对象的显示的方法及其移动终端
TW201007508A (en) Real-time motion recognition method and inertia sensing and trajectory
MXPA05000421A (es) Diseno de sistema optico para un dispositivo de computo universal.
US20160321029A1 (en) Electronic device and method for processing audio data
CN106471450A (zh) 信息处理设备、信息处理方法和程序
CN109804638A (zh) 移动装置的双模式增强现实界面
CN108280171A (zh) 一种基于手持拍照设备的搜题方法及系统
JP6349727B2 (ja) 処理システム、ウェアラブル装置、複数の電子機器の連携方法及びプログラム
CN108763475A (zh) 一种录制方法、录制装置及终端设备
CN107787478A (zh) 在用户界面显示器中选择内容项
CN109871117A (zh) 信息处理装置、显示装置及信息处理系统
JP5962505B2 (ja) 入力装置、入力方法及びプログラム
KR20160060385A (ko) 사용자 손가락들의 모션에 기반한 한글 입력 방법 및 장치
JP6875861B2 (ja) 情報処理方法、装置、及びプログラム
JP5391860B2 (ja) ストローク表示装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140908

R150 Certificate of patent or registration of utility model

Ref document number: 5621464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees