JP2012181596A - 情報処理装置およびプログラム - Google Patents

情報処理装置およびプログラム Download PDF

Info

Publication number
JP2012181596A
JP2012181596A JP2011042623A JP2011042623A JP2012181596A JP 2012181596 A JP2012181596 A JP 2012181596A JP 2011042623 A JP2011042623 A JP 2011042623A JP 2011042623 A JP2011042623 A JP 2011042623A JP 2012181596 A JP2012181596 A JP 2012181596A
Authority
JP
Japan
Prior art keywords
touch panel
input
image
image recognition
contact body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011042623A
Other languages
English (en)
Other versions
JP5017466B1 (ja
Inventor
Jun Ohashi
純 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011042623A priority Critical patent/JP5017466B1/ja
Priority to US13/311,457 priority patent/US8957876B2/en
Application granted granted Critical
Publication of JP5017466B1 publication Critical patent/JP5017466B1/ja
Publication of JP2012181596A publication Critical patent/JP2012181596A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Abstract

【課題】筆記から筆記内容の表示までのタイムラグを減らし、誤認識を自動的にリカバリし、複数の同時入力時にも認識精度を一定の水準に維持する等の仕組みを実現する情報処理装置を提供する。
【解決手段】実施形態によれば、情報処理装置は、タッチパネル上の画像を撮像するカメラと、前記タッチパネルへの入力に用いられた接触体を前記画像から認識する画像認識手段と、前記タッチパネルへの入力の軌跡を前記認識の結果に対応する属性を与えて表示する表示制御手段とを具備する。前記画像認識手段は、前記タッチパネルから得られるタイミング情報に基づき、画像認識処理の対象とする画像を抽出する第1の絞り込み手段と、前記タッチパネルから得られる位置情報に基づき、前記抽出した画像の撮像領域から画像認識処理の対象とする認識範囲を選出する第2の絞り込み手段とを有する。
【選択図】図3

Description

本発明の実施形態は、手書き入力機能を備えた情報処理装置に好適な画像表示方法に関する。
近年、手書き入力機能を備えた情報処理装置が種々普及し始めている。例えば表示面にタッチパネルが設けられたディスプレイ装置を用いた電子式のホワイトボードは、消耗品であるインクが充填されたペンの使用を不要とし、かつ、筆記された内容を電子化されたイメージデータとして簡単に記録すること等を可能とする。
また、最近では、例えば画像認識技術を応用して筆記具の色などを認識し、この認識結果として得られた色を付して、筆記された内容を表示するなどといった電子式のホワイトボードも提案されている。
特開2009−37464号公報
タッチパネルへの入力に用いられる筆記具の色などを画像から認識するためには、ある程度の時間が必要である。従って、電子式のホワイトボード等において、認識結果として得られた色を付して筆記された内容を表示する場合、筆記してからその筆記した内容が表示されるまでのタイムラグが大きく現れてしまう。
また、一般に、電子式のホワイトボード等においては、画像認識時の誤認識への対応があまり考慮されていない。そのために、例えば青色の筆記具で筆記したにも関わらず、その他の色と誤認識されてしまうと、(青色と正しく認識されるまで)誤った色で表示されたものを消して再び筆記することを繰り返す必要であった。つまり、画像認識において誤認識の発生はある程度不可避ではあるものの、このような人的なリカバリによらない自動的なリカバリについて何ら考慮されていないのが実情である。
さらに、最近では、複数の入力を同時に受け付けるマルチタッチ対応のタッチパネルが主流になりつつあるが、一般に、電子式のホワイトボード等においては、複数の同時入力には対応していない。そのために、従来の方法をそのまま適用すると、例えば2人のユーザによって黒色の筆記具と赤色の筆記具とでボード上の互いに近い位置で同時に筆記された場合、認識結果の反映先を取り違える等、認識精度を著しく低下させてしまうおそれを否定できないのが実情である。
従って、前述した電子式のホワイトボードを含む手書き入力機能を備えた情報処理装置においては、筆記から筆記内容の表示までのタイムラグを解消し、誤認識を自動的にリカバリし、複数の同時入力時にも認識精度を一定の水準に維持する等の仕組みが強く求められる。
本発明は、このような事情を考慮してなされたものであり、筆記から筆記内容の表示までのタイムラグを減らし、誤認識を自動的にリカバリし、複数の同時入力時にも認識精度を一定の水準に維持する等の仕組みを実現する情報処理装置およびプログラムを提供することを目的とする。
実施形態によれば、情報処理装置は、表示面上にタッチパネルが設けられたディスプレイ装置と、前記タッチパネルへの入力に用いられた接触体を含む画像を撮像するためのカメラと、前記カメラにより撮像された画像に対して画像認識処理を施し、前記接触体の種類を認識する画像認識手段と、前記タッチパネルへの入力開始から入力終了までの軌跡を前記画像認識手段により認識された前記接触体の種類に対応する属性を与えて前記ディスプレイ装置に表示する表示制御手段とを具備する。前記画像認識手段は、前記タッチパネルから得られる入力情報に含まれる前記タッチパネルへの入力タイミングを示すタイミング情報に基づき、前記カメラにより撮像された画像の中から画像認識処理の対象とする画像を抽出する第1の絞り込み手段と、前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の絞り込み手段により抽出された画像の撮像領域から画像認識処理の対象とする認識範囲を選出する第2の絞り込み手段とを有する。
第1実施形態の情報処理装置の外観を示す図。 第1実施形態の情報処理装置のシステム構成を示す図。 第1実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する処理手順の基本原理を説明するための図。 第1実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムの動作手順を示すフローチャート。 第1実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する画像認識処理の流れを示すフローチャート。 第2実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する処理の基本原理を説明するための図。 第2実施形態の情報処理装置による筆記内容の表示例を示す図。 第3実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する処理の基本原理を説明するための図。 第3実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する画像認識処理の流れを示すフローチャート。 第3実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する処理の一変形例を説明するための図。 第4実施形態の情報処理装置において行われ得る2本のペンによるタッチパネルへの同時入力の例を示す図。 第4実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する画像認識処理の流れを示すフローチャート。 第4実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する画像認識処理の一変形例の流れを示すフローチャート。 第5実施形態の情報処理装置における複数台のカメラユニットの設置例を示す図。 第5実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する画像認識処理の流れを示すフローチャート。 第5実施形態の情報処理装置上で動作する手書き支援ユーティリティプログラムが実行する画像認識処理の一変形例の流れを示すフローチャート。
以下、実施の形態について図面を参照して説明する。
(第1実施形態)
まず、第1の実施の形態について説明する。
図1は、本実施形態の情報処理装置1の外観を示す図である。本情報処理装置1は、例えば、スレート端末などと称される、データ入力をディスプレイ装置の表示面に設けられたタッチパネルによって受け付けるパーソナルコンピュータとして実現されている。
図1に示すように、本情報処理装置1は、薄いボード状の筐体を有している。この筐体の上面中央には、タッチパネルディスプレイ2が配置される。ユーザは、例えばペン3でタッチパネルディスプレイ2に触れることにより、クリック操作や筆記入力操作など、様々なデータ入力操作を行うことができる。タッチパネルディスプレイ2上で例えばペン3による筆記が行われると、本情報処理装置1は、その軌跡(点を含む筆跡)を描画してタッチパネルディスプレイ2上に表示する。タッチパネルディスプレイ2への入力は、ペン3に限らず、例えば指によっても可能である。
また、本情報処理装置1の筐体の上面であって、タッチパネルディスプレイ2の周辺部には、カメラユニット4が組み込まれている。カメラユニット4は、タッチパネルディスプレイ2への入力に用いられた接触体(典型的にはペン3)を含むタッチパネルディスプレイ2の表示面上全体をカバーする画像を撮像するために設けられる。カメラユニット4は、例えば、タッチパネルディスプレイ2の上端中央近傍に、撮像レンズの光軸がタッチパネルディスプレイ2の表示面に対してほぼ水平となるように配置される。
本情報処理装置1は、画像認識機能を有しており、カメラユニット4により撮像された画像に例えばペン3が写っていたならば、この画像からペン3の色や形状などを認識することができる。そして、本情報処理装置1は、この認識結果に基づき、タッチパネルディスプレイ2に表示する軌跡に与える属性を決定する。属性は、色、サイズ、形状、透明度などである。例えば青色のペン3でタッチパネルディスプレイ2に触れると、青色の点がタッチパネルディスプレイ2に表示され、赤色のペン3でタッチパネルディスプレイ2に触れると、赤色の点がタッチパネルディスプレイ2に表示される。青色のペン3でタッチパネルディスプレイ2上に線を引くと、青色の線がタッチパネルディスプレイ2に表示される。
さらに、同じ色でも、例えばペン3の太さが異なる場合に、点や線の太さを変えてタッチパネルディスプレイ2に表示することができる。その他、例えばペン3の色や形状と軌跡の描画に用いるオブジェクトの形状とを予め対応づけておくことにより、色や太さに限らず、例えば動物を図案化した形状のオブジェクトを使って、タッチパネルディスプレイ2に動物のスタンプを押す、動物を並べた線で絵を描く、といったことも可能である。
ところで、タッチパネルディスプレイ2上でペン3による筆記を行ってから、その内容がタッチパネルディスプレイ2上に表示されるまでのタイムラグは、なるべく少ない方が好ましい。そこで、本情報処理装置1は、筆記から筆記内容の表示までのタイムラグを減らす仕組み等を備えるようにしたものであり、以下、この点について詳述する。
図2は、本情報処理装置1のシステム構成を示す図である。図2に示すように、本情報処理装置1は、CPU(Central processing unit)11、MCH(Memory controller hub)12、主メモリ13、ICH(I/O controller hub)14、GPU(Graphics processing unit:表示コントローラ)15およびビデオメモリ(VRAM)15Aを有している。また、本情報処理装置1は、BIOS(Basic input/output system)−ROM(Read only memory)16、EEPROM(Electrically erasable programmable ROM)17、SSD(Solid state drive)18、LAN(Local area network)コントローラ19および無線LANコントローラ20を有している。さらに、本情報処理装置1は、USB(universal serial bus)コントローラ21およびEC(Embedded controller)22を有している。
CPU11は、本情報処理装置1の動作を制御するプロセッサであり、例えばSSD18から主メモリ13にロードされる各種プログラムを実行する。CPU11によって実行される各種プログラムの中には、リソース管理を司るOS100や、当該OS100の配下で動作する、後述する手書き支援ユーティリティプログラム110および各種アプリケーションプログラム120等が存在する。また、CPU11は、BIOS−ROM16に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。
MCH12は、CPU11とICH14との間を接続するブリッジとして動作すると共に、主メモリ13をアクセス制御するメモリコントローラとして動作する。また、MCH12は、GPU15との通信を実行する機能を有している。
GPU15は、ビデオメモリ15Aを使って、タッチパネルディスプレイ2に組み込まれたLCD5への画像表示を実行する表示コントローラである。また、GPU15は、各種プログラムが表示しようとする画像をCPU11に代わって描画するアクセラレータを搭載する。
ICH14は、BIOS−ROM16およびEEPROM17をアクセス制御するメモリコントローラとして動作する。また、ICH14は、SSD18を制御するためのIDE(Integrated Device Electronics)コントローラを内蔵する。さらに、ICH14は、カメラユニット4、LANコントローラ19、無線LANコントローラ20、USBコントローラ21およびEC22と通信する機能も有している。カメラユニット4により撮像された画像の画像データは、このICH14によって取り込まれ、MCH12経由で主メモリ13に転送される。主メモリ13上には、(古い画像データを新しい画像データに置き換えていきながら)所定量の画像データが蓄積される。
EEPROM17は、例えば本情報処理装置1の識別情報などを格納するための記憶媒体である。LANコントローラ19は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスである。一方、無線LANコントローラ20は、例えばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。また、USBコントローラ21は、外部接続されるUSBデバイスとの間でUSB 2.0規格に準拠した通信を実行する。
そして、EC22は、本情報処理装置1の電力管理を行うためのエンベデッドコントローラである。また、EC22は、タッチパネルディスプレイ2上でのタッチ操作によるデータ入力を制御するための入力コントローラを内蔵する。
タッチパネルディスプレイ2には、前述したLCD5のほか、タッチパネル6が組み込まれている。LCD5に重ね合わせて配置されるタッチパネル6は、マルチタッチ対応のタッチパネルであり、センサ61とMCU(Micro controller unit)62とを有している。タッチパネル6上のn箇所でタッチ操作が行われると、そのn箇所すべてがセンサ61によって検出され、タッチパネル6への入力タイミングを示すタイミング情報とタッチパネル6上における入力位置を示す位置情報とを含む入力情報がMCU62によって出力される。MCU62が出力する入力情報は、EC22に導かれ、EC22は、この入力情報を自身のレジスタに格納すると共に、割り込みを発生させることによってCPU11に通知することで、当該レジスタに格納した入力情報をCPU11に読み取らせる。これにより、タッチパネル6上でのタッチ操作というイベントの発生が、OS100に伝達され、OS100は、手書き支援ユーティリティプログラム110や各種アプリケーションプログラム120に対して、このイベントの発生を通知する。
手書き支援ユーティリティプログラム110は、タッチパネルディスプレイ2上で例えばペン3による筆記が行われた場合に、カメラユニット4により撮像された画像からペン3の種類を認識し、この認識結果に基づき、その筆記内容をタッチパネルディスプレイ2に表示するプログラムである。ここで、図3を参照して、手書き支援ユーティリティプログラム110が実行する、筆記から筆記内容の表示までのタイムラグを減らすための処理手順の基本原理を説明する。
前述したように、カメラユニット4により撮像された画像の画像データは、ICH14によって取り込まれ、MCH12経由で主メモリ13に転送される。手書き支援ユーティリティプログラム110は、この主メモリ13に蓄積された画像データを用いて、ペン3の認識を行なう。主メモリ13に蓄積された画像データに対して画像認識処理を施すにあたり、手書き支援ユーティリティプログラム110は、第1に、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報に基づき、画像認識処理の対象とする画像データを抽出する絞り込みを行う(図3の(A))。
いま、図3の(A)に示すように、タイミングa1、タイミングa2、タイミングa3で3つの画像がカメラユニット4によって撮像されたと想定する。また、この3つの画像のうち、タイミングa3で撮像された画像が、タッチパネル6へのタッチ操作が行われたタイミングに最も近い画像であったと想定する。手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報に基づき、この3つの画像の中からタイミングa3で撮像された画像の画像データを画像認識処理の対象として抽出する。
また、手書き支援ユーティリティプログラム110は、第2に、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報に基づき、画像認識処理の対象として抽出した画像データの撮像領域から画像認識処理の対象とする認識範囲を選出する絞り込みをさらに行う(図3の(B))。
いま、図3の(B)に示す位置でタッチ操作が行われたと想定する。手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報に基づき、画像データの画像領域から認識範囲bを切り出す。
例えば、タッチ操作に応答して、タッチ箇所に焦点を合わせて画像を撮像すべくカメラユニット4を駆動制御し、撮像された画像からペン3を認識する場合と比較すると、カメラユニット4により認識対象の画像が撮像されるまでの時間分、筆記から筆記内容の表示までのタイムラグを減らすことができる。
また、手書き支援ユーティリティプログラム110は、画像認識処理の対象を時間的・空間的に絞り込むことにより、処理量を削減し、筆記から筆記内容の表示までのタイムラグを減らすことを実現する。また、対象を絞り込むことで、画像認識処理の精度を高めることができる。
図4は、手書き支援ユーティリティプログラム110の動作手順を示すフローチャートである。
手書き支援ユーティリティプログラム110は、タッチパネル6へのタッチ操作を待機し(ブロックA1)、タッチ操作が行われたこと(イベントの発生)がOS100から通知されると(ブロックA1のYES)、タッチパネル6への入力開始と判断し(ブロックA2)、画像認識処理と描画データ表示処理とを開始する(ブロックA3,A4)。
タッチパネル6への入力が開始されると、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報から入力座標を取得する(ブロックA5)。そして、手書き支援ユーティリティプログラム110は、この取得した入力座標の軌跡を表す描画データを生成する(ブロックA6)。この描画データは、例えばベクトルデータとして生成され、主メモリ13またはSSD18に格納される。
また、この描画データの生成と並行して、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報および位置情報に基づき、画像認識処理の対象を時間的・空間的に絞り込みながら、カメラユニット4により撮像された画像からペン3の色などを認識する(ブロックA3)。図5は、手書き支援ユーティリティプログラム110が実行する画像認識処理の流れを示すフローチャートである。
手書き支援ユーティリティプログラム110は、画像認識処理として、タッチ操作が行われたこと(イベントの発生)がOS100から通知された後、この通知が途絶えるまでの間、または、認識が成功するまでの間、所定の間隔で、ブロックB1〜ブロックB5の処理を繰り返す。具体的には、まず、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報から入力時刻を取得する(ブロックB1)。また、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報から入力座標を取得する(ブロックB2)。
次に、手書き支援ユーティリティプログラム110は、取得した入力時刻に基づき、カメラユニット4により撮像された画像の画像データを取得し(ブロックB3)、取得した入力座標に基づき、取得した画像データ上から選定した一定の範囲の領域を対象として画像認識処理を実行する(ブロックB4)。そして、認識が成功したならば(ブロックB5のYES)、手書き支援ユーティリティプログラム110は、その結果をプロパティとして主メモリ13またはSSD18に格納する(ブロックB6)。プロパティは、LCD5に描画データを表示する際に与えるべき属性を示す。
再び図4を参照する。手書き支援ユーティリティプログラム110は、画像認識処理の結果であるプロパティに基づき、(プロパティで示される属性を与えつつ)取得した入力座標から生成した描画データをLCD5に表示する。また、手書き支援ユーティリティプログラム110は、OS100からのイベント発生の通知が途絶えると、タッチパネル6への入力が終了したと判断し(ブロックA7)、画像認識処理と描画データ表示処理とを終了する。
(第2実施形態)
次に、第2の実施形態について説明する。
図6は、本実施形態の手書き支援ユーティリティプログラム110が実行する、筆記から筆記内容の表示までのタイムラグを減らすための処理の基本原理を説明するための図である。
前述したように、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報から入力座標を取得し、この取得した入力座標の軌跡を表す描画データを生成する。また、手書き支援ユーティリティプログラム110は、カメラユニット4により撮像された画像に対して画像認識処理を施してプロパティを作成する。そして、手書き支援ユーティリティプログラム110は、この作成したプロパティで示される属性を与えて、生成した描画データをLCD5に表示する。
ここで、生成した描画データのLCD5への表示を、プロパティが作成されるまで待機したとすると、筆記から筆記内容の表示までのタイムラグが発生する。そこで、本実施形態の手書き支援ユーティリティプログラム110は、プロパティが作成されるまでの間、所定のプロパティを用いて描画データを表示し、プロパティが作成された時点で、このプロパティを用いて描画データを表示し直す。
手書き支援ユーティリティプログラム110は、タッチパネル6へのタッチ操作が行われたこと(イベントの発生)がOS100から通知された後、所定の間隔で、カメラユニット4により撮像された画像に対する画像認識処理を実行する。
いま、ユーザが、青色のペン3を使ってタッチパネル6上で筆記を行ったものと想定する。また、図6に示すように、タイミングc1〜c4での画像認識処理ではペン3の認識が成功せず、タイミングc5での画像認識処理でペン3の認識が成功した(青色であることを認識できた)ものと想定する。
例えば黒色の属性を示すプロパティが所定のプロパティとして割り当てられていたとすると、手書き支援ユーティリティプログラム110は、まず、描画データを黒色でLCD5に表示する(図6のd1:破線)。この黒色での描画データの表示は、タイミングc5でペン3が青色であることが認識されるまで継続される。そして、手書き支援ユーティリティプログラム110は、タイミングc5でペン3が青色であることを認識すると、それ以前に表示済みの描画データの属性を黒色から青色に変更するとともに、それ以降の描画データを青色の属性を与えてLCD5に表示する(図6のd2:実線)。
前述した第1実施形態の手書き支援ユーティリティプログラム110との違いを図4に示したフローチャートを用いて説明すると、本実施形態の手書き支援ユーティリティプログラム110は、ブロックA3の画像認識処理が成功するまでの間、所定のプロパティを用いてブロックA4による描画データ表示処理を実行する。また、本実施形態の手書き支援ユーティリティプログラム110は、ブロックA3の画像認識処理が成功したときに、ブロックA4の描画データ表示処理で用いるプロパティを更新する。
なお、手書き支援ユーティリティプログラム110は、タイミングc5でペン3の認識に成功したら、それ以降についての画像認識処理の実行を停止して、情報処理装置の負荷低減を図るようにしてもよい。
つまり、本実施形態の情報処理装置では、ペン3が青色であることが認識されるタイミングc5までの区間についても、例えば黒色で筆記内容が暫定的にLCD5に表示されるので、筆記から筆記内容の表示までのタイムラグをユーザに実感させてしまうことを無くすことができる。
ところで、ここでは、プロパティが示す属性として、色を例に説明したが、画像からのペン3の認識は、色に限らず、例えば太さなども認識可能であるので、タッチパネル6への入力開始当初は、初期値として割り当てられた太さで描画データをLCD5に表示し、太さが認識した時点で、認識結果に応じた太さに変更するようにしてもよい。また、プロパティは、色と太さの組み合わせを示すように構成できることは言うまでもない。太さに応じて色を変化させることも可能である。
さらに、画像からペン3の形状を認識することも可能であるので、第1の形状であることを認識したら青色の属性を与え、第2の形状であることを認識したら赤色の属性を与えるといった表示制御も、プロパティの使い分けによって可能となる。また、色や太さ以外にも、いわゆるマーカーとしてペン3を利用できるように、属性として透明度を与えることも可能である。さらに、図7に示すように、例えば動物を図案化した形状のオブジェクトを使って、描画データをLCD5に表示することで、児童用のお絵かきツールとして本情報処理装置1を利用することも可能である。
(第3実施形態)
次に、第3の実施形態について説明する。
図8は、本実施形態の手書き支援ユーティリティプログラム110が実行する、誤認識を自動的にリカバリするための処理の基本原理を説明するための図である。
本実施形態の手書き支援ユーティリティプログラム110は、タッチ操作が行われたこと(イベントの発生)がOS100から通知された後、この通知が途絶えるまでの間、所定の間隔で、画像認識処理を繰り返す。また、この間に、認識が成功しても、画像認識処理の実行は継続する。
図8中、黒の丸は、画像認識処理を実行したが認識に失敗したことを示している(例えばタイミングe1)。また、四角の丸は、画像認識処理によってペン3の色が青色であることを認識したことを示している(例えばタイミングe3)。さらに、三角の丸は、画像認識処理によってペン3の色が緑色であることを認識したことを示している(例えばタイミングe6)。
図8に示す例では、タッチパネル6への入力が開始された後、タイミングe3で初めてペン3の色の認識に成功している。従って、このタイミングe3までの間、本実施形態の手書き支援ユーティリティプログラム110は、例えばデフォルト色として割り当てられた黒色で描画データを表示する(図8のf1:破線)。
本実施形態の手書き支援ユーティリティプログラム110は、ペン3の色の認識に成功したタイミングe3以降も、画像認識処理を継続する。また、本実施形態の手書き支援ユーティリティプログラム110は、このタイミングe3以降も、例えばデフォルト色として割り当てられた黒色で描画データを表示し続ける。
そして、タッチパネル6への入力が終了したときに、本実施形態の手書き支援ユーティリティプログラム110は、タッチパネル6への入力開始から入力終了までに認識されたペン3の色を各色毎に集計する。図8の例では、青色が3回(タイミングe3,e5,e8)、緑色が4回(タイミングe6,e7,e9,e10)である。そこで、本実施形態の手書き支援ユーティリティプログラム110は、多数決で、最も多い回数認識された緑色を選択して、表示済みの描画データの属性を黒色から緑色に変更する(図8のf2:実線)。
つまり、(最初に認識に成功した)タイミングe3での画像認識処理で緑色を青色と誤認識した場合であっても、この誤認識が自動的にリカバリされ、タッチパネル6への入力が終了した際には、筆記内容がデフォルト色から正しい緑色に更新される。よって、画像認識処理の精度を高めることができる。
図9は、本実施形態の手書き支援ユーティリティプログラム110が実行する画像認識処理の流れを示すフローチャートである。
手書き支援ユーティリティプログラム110は、画像認識処理として、タッチ操作が行われたこと(イベントの発生)がOS100から通知された後、この通知が途絶えるまでの間(途中で認識が成功しても)、所定の間隔で、ブロックC1〜ブロックC6の処理を繰り返す。具体的には、まず、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報から入力時刻を取得する(ブロックC1)。また、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報から入力座標を取得する(ブロックC2)。
次に、手書き支援ユーティリティプログラム110は、取得した入力時刻に基づき、カメラユニット4により撮像された画像の画像データを取得し(ブロックC3)、取得した入力座標に基づき、取得した画像データ上から選定した一定の範囲の領域を対象として画像認識処理を実行する(ブロックC4)。そして、認識が成功したならば(ブロックC5のYES)、手書き支援ユーティリティプログラム110は、その結果を主メモリ13またはSSD18に一時的に保存する(ブロックC6)。
以上のブロックC1〜ブロックC6の処理を、タッチ操作が行われたこと(イベントの発生)の通知をOS100から受けている間繰り返した手書き支援ユーティリティプログラム110は、この通知が途切れたとき、認識が1度でも成功したか、即ち、主メモリ13またはSSD18に保存された認識結果が存在するか否かを調べ(ブロックC7)、存在していたら(ブロックC7のYES)、認識結果の多数決を取って、プロパティを生成して主メモリ13またはSSD18に格納する(ブロックC8)。
ところで、ここでは、タッチパネル6への入力が開始された後、デフォルト色である例えば黒色で描画データを表示し、タッチパネル6への入力が終了したときに、黒色を多数決で選ばれた例えば緑色に変更する例を説明した。これに代えて、画像認識が成功したタイミング毎に多数決を取り、適宜に表示色を変更するようにしてもよい。例えば、図10に示すように、タイミングe3で青色と認識されるまでは、描画データをデフォルト色である黒色で表示し(図10のf1:破線)、当該タイミングe3で青色と認識されたならば、その表示色を黒色から青色に変更する(図10のf3:一点鎖線)。その後、タイミングe5でも青色と認識しているので、表示色は青色に保たれる。さらに時間が経過し、タイミングe10で緑色と認識した回数が青色と認識した回数を上回ると、このタイミングで、その表示色を青色から緑色に変更する(図10のf2:実線)。
このように、タッチパネル6への入力が終了するまで待機することなく、描画データの表示に画像認識結果をリアルタイムに反映させることも可能である。
(第4実施形態)
次に、第4の実施形態について説明する。
前述したように、タッチパネルディスプレイ2に組み込まれ、LCD5に重ね合わせて配置されるタッチパネル6は、マルチタッチ対応のタッチパネルである。そこで、本情報処理装置1は、複数のペン3による同時入力をサポートする。図11に、本情報処理装置1において行われ得る2本のペン3によるタッチパネル6への同時入力の例を示す。
いま、2本のペンによるタッチパネル6への同時入力が、ある程度の距離を置いて行われたと想定する(図11の(A))。前述したように、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報に基づき、画像認識処理の対象とする画像データを抽出するとともに、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報に基づき、画像データの画像領域から認識範囲を切り出す。2本のペンによるタッチパネル6への同時入力が、ある程度の距離を置いて行われた場合には、図11の(A)に示すように、認識範囲がそれぞれ重複することなく画像領域から選出される(認識範囲b1,b2)。この場合、それぞれの認識範囲には認識対象が1つずつ含まれるので、ペン3の認識は、シングルタッチの場合と同等の精度で実行することができる。
次に、2本のペンによるタッチパネル6への同時入力が、互いに近い距離で行われたと想定する(図11の(B))。この場合、図11の(B)に示すように、画像領域上で2つの認識範囲が重複し得る(認識範囲b1,b2)。そうすると、1つの認識範囲に認識対象となり得る被写体像が複数含まれ得る。1つの認識範囲に認識対象となり得る被写体像が複数含まれていた場合、認識結果の反映先を取り違える等、シングルタッチの場合と比較して、その精度を著しく低下させるおそれを否定できない。
そこで、本実施形態の手書き支援ユーティリティプログラム110は、このような場合における認識精度の低下を防止し、認識精度を一定の水準に維持する仕組みを備える。具体的には、本実施形態の手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報を、画像領域からの認識範囲の切り出しに利用することに加えて、切り出した認識範囲に認識対象となり得る被写体像が複数含まれていた場合に、各々の認識結果の反映先への対応づけにも利用する。
例えば、図1に示したように、カメラユニット4がタッチパネルディスプレイ2の上端中央近傍に配置されている場合には、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報のX軸方向の座標値情報を利用して、認識範囲に含まれる複数の被写体像の認識結果それぞれの反映先を決定する。カメラユニット4がタッチパネルディスプレイ2の下端中央近傍に配置されている場合も同様である。
また、カメラユニット4がタッチパネルディスプレイ2の左端中央近傍または右端中央近傍に配置されていた場合には、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報のY軸方向の座標値情報を利用して、認識範囲に含まれる複数の被写体像の認識結果それぞれの反映先を決定する。
図12は、本実施形態の手書き支援ユーティリティプログラム110が実行する画像認識処理の流れを示すフローチャートである。
手書き支援ユーティリティプログラム110は、画像認識処理として、タッチ操作が行われたこと(イベントの発生)がOS100から通知された後、この通知が途絶えるまでの間、または、認識が成功するまでの間、所定の間隔で、ブロックD1〜ブロックD8の処理を繰り返す。具体的には、まず、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報から入力時刻を取得する(ブロックD1)。また、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報から入力座標を取得する(ブロックD2)。手書き支援ユーティリティプログラム110は、このブロックD1〜ブロックD2の処理を、同時入力数分だけ繰り返す。
次に、手書き支援ユーティリティプログラム110は、取得した入力時刻に基づき、カメラユニット4により撮像された画像の画像データを取得し(ブロックD3)、取得した入力座標に基づき、取得した画像データ上から選定した一定の範囲の領域を対象として画像認識処理を実行する(ブロックD4)。
認識が成功した場合(ブロックD5のYES)、手書き支援ユーティリティプログラム110は、続いて、同時入力数が2以上でなかったか、および、認識範囲が重複していなかったかを調べる(ブロックD6)。もし、同時入力数が2以上であり、かつ、認識範囲が重複していた場合(ブロックD6のYES)、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報と、カメラユニット4から取得した画像データ上の位置情報とを比較しながら(ブロックB7)、同時入力数分のプロパティを作成して主メモリ13またはSSD18に格納する(ブロックD8)。なお、同時入力数が2以上ではないか、または、認識範囲が重複していない場合には(ブロックD6のNO)、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報と、カメラユニット4から取得した画像データ上の位置情報との比較を行うことなく、その認識結果をプロパティとして主メモリ13またはSSD18に格納する。
これにより、2本のペンによるタッチパネル6への同時入力が、互いに近い距離で行われ、1つの認識範囲に認識対象となり得る被写体像が複数含まれたとしても、認識結果の反映先を取り違える等を防止し、認識精度を一定の水準に維持することを実現する。
なお、ここでは、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報を用いて、画像認識処理の認識結果の反映先を決定する例を説明した。前述したように、手書き支援ユーティリティプログラム110は、所定の間隔で、ペン3を認識するための画像認識処理を繰り返す。この点を考慮して、1つの認識範囲に認識対象となり得る被写体像が複数含まれていた場合、このタイミングでの画像認識処理をスキップすることによって、認識精度の低下を防止することも考えられる。図13は、この場合の手書き支援ユーティリティプログラムの画像認識処理の流れを示すフローチャートである。
手書き支援ユーティリティプログラム110は、画像認識処理として、タッチ操作が行われたこと(イベントの発生)がOS100から通知された後、この通知が途絶えるまでの間、または、認識が成功するまでの間、所定の間隔で、ブロックE1〜ブロックE7の処理を繰り返す。具体的には、まず、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報から入力時刻を取得する(ブロックE1)。また、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報から入力座標を取得する(ブロックE2)。手書き支援ユーティリティプログラム110は、このブロックE1〜ブロックE2の処理を、同時入力数分だけ繰り返す。
ここで、手書き支援ユーティリティプログラム110は、同時入力数が2以上でなかったか、および、認識範囲が重複していなかったかを調べる(ブロックE3)。もし、同時入力数が2以上であり、かつ、認識範囲が重複していた場合(ブロックE3のYES)、手書き支援ユーティリティプログラム110は、今回のタイミングにおける画像認識処理について、後続の処理を行うことを中止する。
一方、同時入力数が2以上ではないか、または、認識範囲が重複していない場合(ブロックE3のNO)、手書き支援ユーティリティプログラム110は、取得した入力時刻に基づき、カメラユニット4により撮像された画像の画像データを取得し(ブロックE4)、取得した入力座標に基づき、取得した画像データ上から選定した一定の範囲の領域を対象として画像認識処理を実行する(ブロックE5)。そして、認識が成功したならば(ブロックE6のYES)、手書き支援ユーティリティプログラム110は、その結果をプロパティとして主メモリ13またはSSD18に格納する(ブロックE7)。
以上のように、画像領域上で2つの認識範囲が重複した場合、このタイミングでの画像認識処理をスキップすることによっても、認識精度の低下を防止することができる。
(第5実施形態)
次に、第5の実施形態について説明する。
前述した第1乃至第4実施形態の情報処理装置1では、カメラユニット4を、タッチパネルディスプレイ2の周辺部に1台設置することを前提とした。これに対し、本実施形態の情報処理装置1は、カメラユニット4を、タッチパネルディスプレイ2の周辺部に複数台設置する。ここでは、図11に示すように、2台のカメラユニット4を設置する例を説明する。
2台のカメラユニット4は、図11に示すように、例えば、1台をタッチパネルディスプレイ2の上端中央近傍に、もう1台をタッチパネルディスプレイ2の下端中央近傍に配置してもよいし(図11の(A))、例えば、タッチパネルディスプレイ2の上端中央からの距離が等しくなるように、2台ともタッチパネルディスプレイ2の上端に配置してもよい(図11の(B))。つまり、複数台2のカメラユニット4の配置は、特に限定されるものではない。
そして、本実施形態の手書き支援ユーティリティプログラム110は、2つのカメラユニット4で撮像された2つの画像のうちの一方の画像を使ってペン3を認識し、ペン3の認識に失敗したときに、画像認識処理に使用する画像を切り替える。これにより、認識精度の向上を試みる。
図15は、本実施形態の手書き支援ユーティリティプログラム110が実行する画像認識処理の流れを示すフローチャートである。
手書き支援ユーティリティプログラム110は、画像認識処理として、タッチ操作が行われたこと(イベントの発生)がOS100から通知された後、この通知が途絶えるまでの間、または、認識が成功するまでの間、所定の間隔で、ブロックF1〜ブロックF8の処理を繰り返す。具体的には、まず、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報から入力時刻を取得する(ブロックF1)。また、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報から入力座標を取得する(ブロックF2)。
次に、手書き支援ユーティリティプログラム110は、取得した入力時刻に基づき、その時に選択状態にあるカメラユニット4により撮像された画像の画像データを取得し(ブロックF3)、取得した入力座標に基づき、取得した画像データ上から選定した一定の範囲の領域を対象として画像認識処理を実行する(ブロックF4)。そして、認識が成功したならば(ブロックF5のYES)、手書き支援ユーティリティプログラム110は、その結果をプロパティとして主メモリ13またはSSD18に格納する(ブロックF6)。
一方、認識が失敗した場合(ブロックF5のNO)、手書き支援ユーティリティプログラム110は、既にカメラユニット4の切り替えを実行済みであるか否かを調べ(ブロックF7)、切り替えを実行していなければ(ブロックF7のNO)、カメラユニット4の切り替えを行い(ブロックF8)、このカメラユニット4により撮像された画像の画像データについて画像認識処理を実行すべく、ブロックF3からの処理を繰り返す。
なお、ここでは、2つのカメラユニット4で撮像された2つの画像のうち、ペン3の認識に用いる画像を適宜に切り替える例を説明した。つまり、2つのカメラユニット4が、並行して画像の撮像を行っていることを前提としている。これに代えて、ペン3の認識に用いる画像を切り替えるタイミングで、切り替え先のカメラユニット4を起動するとともに、切り替え元のカメラユニット4を停止させるようにしてもよい。
また、図16は、更に、2本のペンによるタッチパネル6への同時入力を考慮した、本実施形態の手書き支援ユーティリティプログラム110が実行する画像認識処理の流れを示すフローチャートである。
手書き支援ユーティリティプログラム110は、画像認識処理として、タッチ操作が行われたこと(イベントの発生)がOS100から通知された後、この通知が途絶えるまでの間、または、認識が成功するまでの間、所定の間隔で、ブロックG1〜ブロックG12の処理を繰り返す。具体的には、まず、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれるタイミング情報から入力時刻を取得する(ブロックG1)。また、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報から入力座標を取得する(ブロックG2)。手書き支援ユーティリティプログラム110は、このブロックG1〜ブロックG2の処理を、同時入力数分だけ繰り返す。
次に、手書き支援ユーティリティプログラム110は、取得した入力時刻に基づき、その時に選択状態にあるカメラユニット4により撮像された画像の画像データを取得し(ブロックG3)、取得した入力座標に基づき、取得した画像データ上から選定した一定の範囲の領域を対象として画像認識処理を実行する(ブロックG4)。
認識が成功した場合(ブロックG5のYES)、手書き支援ユーティリティプログラム110は、続いて、同時入力数が2以上でなかったか、および、認識範囲が重複していなかったかを調べる(ブロックG6)。もし、同時入力数が2以上であり、かつ、認識範囲が重複していた場合(ブロックG6のYES)、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報と、カメラユニット4から取得した画像データ上の位置情報とを比較しながら(ブロックG7)、同時入力数分のプロパティを作成して主メモリ13またはSSD18に格納する(ブロックG8)。なお、同時入力数が2以上ではないか、または、認識範囲が重複していない場合には(ブロックG6のNO)、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報と、カメラユニット4から取得した画像データ上の位置情報との比較を行うことなく、その認識結果をプロパティとして主メモリ13またはSSD18に格納する。
一方、認識が失敗した場合(ブロックG5のNO)、手書き支援ユーティリティプログラム110は、ブロックG1で取得した取得した入力時刻に基づき、もう一方のカメラユニット4により撮像された画像の画像データを取得し(ブロックG9)、また、ブロックG2で取得した入力座標に基づき、取得した画像データ上から選定した一定の範囲の領域を対象として画像認識処理を実行する(ブロックG10)。
認識が成功した場合(ブロックG11のYES)、手書き支援ユーティリティプログラム110は、続いて、同時入力数が2以上でなかったか、および、認識範囲が重複していなかったかを調べる(ブロックG12)。同時入力数が2以上であり、かつ、認識範囲が重複していた場合(ブロックG12のYES)、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報と、カメラユニット4から取得した画像データ上の位置情報とを比較しながら(ブロックG7)、同時入力数分のプロパティを作成して主メモリ13またはSSD18に格納する(ブロックG8)。また、同時入力数が2以上ではないか、または、認識範囲が重複していない場合には(ブロックG12のNO)、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報と、カメラユニット4から取得した画像データ上の位置情報との比較を行うことなく、その認識結果をプロパティとして主メモリ13またはSSD18に格納する。
なお、この場合においても、ブロックG9(またはブロックG5のNO)のタイミングで、切り替え先のカメラユニット4を起動するとともに、切り替え元のカメラユニット4を停止させるようにしてもよい。
以上のように、本実施形態の情報処理装置1は、2つのカメラユニット4を具備し、手書き支援ユーティリティプログラム110が、2つのカメラユニット4で撮像された2つの画像の中からペン3の認識に用いる画像を適宜に選択することにより、認識精度を向上させることを実現する。
なお、ここでは、2つのカメラユニット4で撮像された2つの画像の中からペン3の認識に用いる画像を適宜に選択する例を示したが、同時入力数が2以上であり、かつ、認識範囲が重複していた場合に、一方のペン3の認識に用いる画像と、他方のペン3の認識に用いる画像とを、2つのカメラユニット4で撮像された2つの画像の一方と他方とで使い分けるようにしてもよい。
例えば、2つのカメラユニット4が、図14の(A)に示すように設置されていた場合には、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報のY軸方向の座標値情報に基づき、2つのカメラユニット4で撮像された2つの画像の使い分けを行う。また、例えば、2つのカメラユニット4が、図14の(B)に示すように設置されていた場合には、手書き支援ユーティリティプログラム110は、タッチパネル6のMCU62が出力する入力情報に含まれる位置情報のX軸方向の座標値情報に基づき、2つのカメラユニット4で撮像された2つの画像の使い分けを行う。
これにより、認識精度をさらに向上させることを実現する。
以上のように、本情報処理装置によれば、筆記から筆記内容の表示までのタイムラグを減らし、誤認識を自動的にリカバリし、複数の同時入力時にも認識精度を一定の水準に維持する等の仕組みが実現される。
なお、本実施形態の動作制御処理は、ソフトウェア(プログラム)によって実現することができるので、このソフトウェアを格納したコンピュータ読み取り可能な記憶媒体を通じてこのソフトウェアを通常のコンピュータにインストールして実行することにより、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…情報処理装置、2…タッチパネルディスプレイ、3…ペン、4…カメラユニット、5…LCD、6…タッチパネル、11…CPU、12…MCH、13…主メモリ、14…ICH、15…GPU、15A…ビデオメモリ、16…BIOS−ROM、17…EEPROM、18…SSD、19…LANコントローラ、20…無線LANコントローラ、21…USBコントローラ、22…EC、61…センサ、62…MCU、100…OS、110…手書き支援ユーティリティプログラム、120…各種アプリケーションプログラム。
実施形態によれば、情報処理装置は、表示面上にタッチパネルが設けられたディスプレイ装置と、前記タッチパネルへの入力に用いられた接触体を含む画像を撮像するためのカメラと、前記カメラにより撮像された画像に対して画像認識処理を施し、前記接触体の種類を認識する画像認識手段と、前記タッチパネルへの入力開始から入力終了までの軌跡を前記画像認識手段により認識された前記接触体の種類に対応する属性を与えて前記ディスプレイ装置に表示する表示制御手段とを具備する。前記画像認識手段は、前記タッチパネルから得られる入力情報に含まれる前記タッチパネルへの入力タイミングを示すタイミング情報に基づき、前記カメラにより撮像された画像の中から画像認識処理の対象とする画像を抽出する第1の絞り込み手段と、前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の絞り込み手段により抽出された画像の撮像領域から画像認識処理の対象とする認識範囲を選出する第2の絞り込み手段とを有する。前記表示制御手段は、前記タッチパネルへの入力開始から前記接触体の種類が前記画像認識手段により認識されるまでの間、前記タッチパネルへの入力開始からの軌跡を所定の属性を与えて表示し、前記画像認識手段により前記接触体の種類が認識されたときに、前記所定の属性を前記接触体の種類に対応する属性に変更すべく表示を更新する。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
表示面上にタッチパネルが設けられたディスプレイ装置と、
前記タッチパネルへの入力に用いられた接触体を含む画像を撮像するためのカメラと、
前記カメラにより撮像された画像に対して画像認識処理を施し、前記接触体の種類を認識する画像認識手段と、
前記タッチパネルへの入力開始から入力終了までの軌跡を前記画像認識手段により認識された前記接触体の種類に対応する属性を与えて前記ディスプレイ装置に表示する表示制御手段と、
を具備し、
前記画像認識手段は、
前記タッチパネルから得られる入力情報に含まれる前記タッチパネルへの入力タイミングを示すタイミング情報に基づき、前記カメラにより撮像された画像の中から画像認識処理の対象とする画像を抽出する第1の絞り込み手段と、
前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の絞り込み手段により抽出された画像の撮像領域から画像認識処理の対象とする認識範囲を選出する第2の絞り込み手段と、
を有する情報処理装置。
[2]
前記表示制御手段は、前記タッチパネルへの入力開始から前記接触体の種類が前記画像認識手段により認識されるまでの間、前記タッチパネルへの入力開始からの軌跡を所定の属性を与えて表示し、前記画像認識手段により前記接触体の種類が認識されたときに、前記所定の属性を前記接触体の種類に対応する属性に変更すべく表示を更新する[1]の情報処理装置。
[3]
前記画像認識手段は、前記タッチパネルへの入力開始から入力終了までの間、所定の間隔で前記接触体の種類を認識するための前記画像認識処理を実行し、
前記表示制御手段は、前記タッチパネルへの入力開始からその時までの間に前記画像認識手段によって最も多い回数認識された前記接触体の種類に対応する属性を与えられて前記タッチパネルへの入力開始からの軌跡が前記ディスプレイ装置に表示されるように、前記タッチパネルへの入力開始からの軌跡の表示の更新を適応的に実行する[2]の情報処理装置。
[4]
前記画像認識手段は、前記タッチパネルへの入力が開始されたときに、前記接触体の種類を認識するための前記画像認識処理を開始し、所定の間隔で、前記接触体の種類を認識するための前記画像認識処理を実行し、前記接触体の種類が認識できたときに、前記接触体の種類を認識するための前記画像認識処理の実行を停止する[2]の情報処理装置。
[5]
前記画像認識手段は、前記タッチパネルへの入力開始から入力終了までの間、所定の間隔で前記接触体の種類を認識するための前記画像認識処理を実行し、
前記表示認識手段は、前記タッチパネルへの入力が終了するまでの間、前記タッチパネルへの入力開始から入力終了までの軌跡を所定の属性を与えて前記ディスプレイ装置に表示し、前記タッチパネルへの入力が終了したときに、前記所定の属性を、前記タッチパネルへの入力開始から入力終了までの間に前記画像認識手段によって最も多い回数認識された前記接触体の種類に対応する属性に変更すべく表示を更新する、
[1]の情報処理装置。
[6]
前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
前記画像認識手段は、前記第2の絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体の種類をそれぞれ認識した後、前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、複数の認識結果と複数の軌跡との間の対応づけを行う[1]の情報処理装置。
[7]
前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
前記画像認識手段は、前記第2の絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体の種類を認識するための前記画像認識処理を中止する[1]の情報処理装置。
[8]
前記属性は、色、サイズ、形状、透明度の中の少なくとも1つを含む[1]の情報処理装置。
[9]
表示面上にタッチパネルが設けられたディスプレイ装置と、
前記タッチパネルへの入力に用いられた接触体を含む第1の画像を撮像するための第1のカメラと、
前記接触体を含む第2の画像を撮像するための第2のカメラと、
前記第1の画像または前記第2の画像に対して画像認識処理を施し、前記接触体の種類を認識する画像認識手段と、
前記タッチパネルへの入力開始から入力終了までの軌跡を前記画像認識手段により認識された前記接触体の種類に対応する属性を与えて前記ディスプレイ装置に表示する表示制御手段と、
を具備する情報処理装置。
[10]
前記画像認識手段は、前記第1の画像に対する画像認識処理による前記接触体の種類の認識が失敗した場合、前記接触体の種類を認識するための前記画像認識処理の対象を前記第1の画像から前記第2の画像に切り替える画像切り替え手段を有する[9]の情報処理装置。
[11]
前記画像認識手段の前記画像切り替え手段により前記接触体の種類を認識するための前記画像認識処理の対象が前記第1の画像から前記第2の画像に切り替わるときに、前記第1のカメラの動作を停止させて前記第2のカメラを起動するカメラ制御手段をさらに具備する[10]の情報処理装置。
[12]
前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
前記画像認識手段は、
前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の画像または前記第2の画像の撮像領域から画像認識処理の対象とする認識範囲を選出する絞り込み手段を有し、
前記絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体それぞれについて、前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の画像または前記第2の画像のいずれを画像認識処理に用いるかを決定する
[9]の情報処理装置。
[13]
前記属性は、色、サイズ、形状、透明度の中の少なくとも1つを含む[9]の情報処理装置。
[14]
表示面上にタッチパネルが設けられたディスプレイ装置と、前記タッチパネルへの入力に用いられた接触体を含む画像を撮像するためのカメラとを具備するコンピュータにより実行されるプログラムであって、前記プログラムは前記コンピュータを、
前記カメラにより撮像された画像に対して画像認識処理を施し、前記接触体の種類を認識する画像認識手段と、
前記タッチパネルへの入力開始から入力終了までの軌跡を前記画像認識手段により認識された前記接触体の種類に対応する属性を与えて前記ディスプレイ装置に表示する表示制御手段と、
して動作させるものであり、
前記プログラムは前記コンピュータを、
前記画像認識手段が、
前記タッチパネルから得られる入力情報に含まれる前記タッチパネルへの入力タイミングを示すタイミング情報に基づき、前記カメラにより撮像された画像の中から画像認識処理の対象とする画像を抽出する第1の絞り込み手段と、
前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の絞り込み手段により抽出された画像の撮像領域から画像認識処理の対象とする認識範囲を選出する第2の絞り込み手段と、
を有するように動作させるものであるプログラム。
[15]
前記プログラムは前記コンピュータを、前記表示制御手段が、前記タッチパネルへの入力開始から前記接触体の種類が前記画像認識手段により認識されるまでの間、前記タッチパネルへの入力開始からの軌跡を所定の属性を与えて表示し、前記画像認識手段により前記接触体の種類が認識されたときに、前記所定の属性を前記接触体の種類に対応する属性に変更すべく表示を更新するように動作させる[14]のプログラム。
[16]
前記プログラムは前記コンピュータを、
前記画像認識手段が、前記タッチパネルへの入力開始から入力終了までの間、所定の間隔で前記接触体の種類を認識するための前記画像認識処理を実行し、
前記表示制御手段が、前記タッチパネルへの入力開始からその時までの間に前記画像認識手段によって最も多い回数認識された前記接触体の種類に対応する属性を与えられて前記タッチパネルへの入力開始からの軌跡が前記ディスプレイ装置に表示されるように、前記タッチパネルへの入力開始からの軌跡の表示の更新を適応的に実行する
ように動作させる[15]のプログラム。
[17]
前記プログラムは前記コンピュータを、
前記画像認識手段が、前記タッチパネルへの入力が開始されたときに、前記接触体の種類を認識するための前記画像認識処理を開始し、所定の間隔で、前記接触体の種類を認識するための前記画像認識処理を実行し、前記接触体の種類が認識できたときに、前記接触体の種類を認識するための前記画像認識処理の実行を停止するように動作させる[15]のプログラム。
[18]
前記プログラムは前記コンピュータを、
前記画像認識手段が、前記タッチパネルへの入力開始から入力終了までの間、所定の間隔で前記接触体の種類を認識するための前記画像認識処理を実行し、
前記表示認識手段が、前記タッチパネルへの入力が終了するまでの間、前記タッチパネルへの入力開始から入力終了までの軌跡を所定の属性を与えて前記ディスプレイ装置に表示し、前記タッチパネルへの入力が終了したときに、前記所定の属性を、前記タッチパネルへの入力開始から入力終了までの間に前記画像認識手段によって最も多い回数認識された前記接触体の種類に対応する属性に変更すべく表示を更新する、
ように動作させる[14]のプログラム。
[19]
前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
前記プログラムは前記コンピュータを、
前記画像認識手段が、前記第2の絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体の種類をそれぞれ認識した後、前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、複数の認識結果と複数の軌跡との間の対応づけを行うように動作させる[14]のプログラム。
[20]
前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
前記プログラムは前記コンピュータを、
前記画像認識手段が、前記第2の絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体の種類を認識するための前記画像認識処理を中止するように動作させる[14]のプログラム。

Claims (20)

  1. 表示面上にタッチパネルが設けられたディスプレイ装置と、
    前記タッチパネルへの入力に用いられた接触体を含む画像を撮像するためのカメラと、
    前記カメラにより撮像された画像に対して画像認識処理を施し、前記接触体の種類を認識する画像認識手段と、
    前記タッチパネルへの入力開始から入力終了までの軌跡を前記画像認識手段により認識された前記接触体の種類に対応する属性を与えて前記ディスプレイ装置に表示する表示制御手段と、
    を具備し、
    前記画像認識手段は、
    前記タッチパネルから得られる入力情報に含まれる前記タッチパネルへの入力タイミングを示すタイミング情報に基づき、前記カメラにより撮像された画像の中から画像認識処理の対象とする画像を抽出する第1の絞り込み手段と、
    前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の絞り込み手段により抽出された画像の撮像領域から画像認識処理の対象とする認識範囲を選出する第2の絞り込み手段と、
    を有する情報処理装置。
  2. 前記表示制御手段は、前記タッチパネルへの入力開始から前記接触体の種類が前記画像認識手段により認識されるまでの間、前記タッチパネルへの入力開始からの軌跡を所定の属性を与えて表示し、前記画像認識手段により前記接触体の種類が認識されたときに、前記所定の属性を前記接触体の種類に対応する属性に変更すべく表示を更新する請求項1記載の情報処理装置。
  3. 前記画像認識手段は、前記タッチパネルへの入力開始から入力終了までの間、所定の間隔で前記接触体の種類を認識するための前記画像認識処理を実行し、
    前記表示制御手段は、前記タッチパネルへの入力開始からその時までの間に前記画像認識手段によって最も多い回数認識された前記接触体の種類に対応する属性を与えられて前記タッチパネルへの入力開始からの軌跡が前記ディスプレイ装置に表示されるように、前記タッチパネルへの入力開始からの軌跡の表示の更新を適応的に実行する請求項2記載の情報処理装置。
  4. 前記画像認識手段は、前記タッチパネルへの入力が開始されたときに、前記接触体の種類を認識するための前記画像認識処理を開始し、所定の間隔で、前記接触体の種類を認識するための前記画像認識処理を実行し、前記接触体の種類が認識できたときに、前記接触体の種類を認識するための前記画像認識処理の実行を停止する請求項2記載の情報処理装置。
  5. 前記画像認識手段は、前記タッチパネルへの入力開始から入力終了までの間、所定の間隔で前記接触体の種類を認識するための前記画像認識処理を実行し、
    前記表示認識手段は、前記タッチパネルへの入力が終了するまでの間、前記タッチパネルへの入力開始から入力終了までの軌跡を所定の属性を与えて前記ディスプレイ装置に表示し、前記タッチパネルへの入力が終了したときに、前記所定の属性を、前記タッチパネルへの入力開始から入力終了までの間に前記画像認識手段によって最も多い回数認識された前記接触体の種類に対応する属性に変更すべく表示を更新する、
    請求項1記載の情報処理装置。
  6. 前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
    前記画像認識手段は、前記第2の絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体の種類をそれぞれ認識した後、前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、複数の認識結果と複数の軌跡との間の対応づけを行う請求項1記載の情報処理装置。
  7. 前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
    前記画像認識手段は、前記第2の絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体の種類を認識するための前記画像認識処理を中止する請求項1記載の情報処理装置。
  8. 前記属性は、色、サイズ、形状、透明度の中の少なくとも1つを含む請求項1記載の情報処理装置。
  9. 表示面上にタッチパネルが設けられたディスプレイ装置と、
    前記タッチパネルへの入力に用いられた接触体を含む第1の画像を撮像するための第1のカメラと、
    前記接触体を含む第2の画像を撮像するための第2のカメラと、
    前記第1の画像または前記第2の画像に対して画像認識処理を施し、前記接触体の種類を認識する画像認識手段と、
    前記タッチパネルへの入力開始から入力終了までの軌跡を前記画像認識手段により認識された前記接触体の種類に対応する属性を与えて前記ディスプレイ装置に表示する表示制御手段と、
    を具備する情報処理装置。
  10. 前記画像認識手段は、前記第1の画像に対する画像認識処理による前記接触体の種類の認識が失敗した場合、前記接触体の種類を認識するための前記画像認識処理の対象を前記第1の画像から前記第2の画像に切り替える画像切り替え手段を有する請求項9記載の情報処理装置。
  11. 前記画像認識手段の前記画像切り替え手段により前記接触体の種類を認識するための前記画像認識処理の対象が前記第1の画像から前記第2の画像に切り替わるときに、前記第1のカメラの動作を停止させて前記第2のカメラを起動するカメラ制御手段をさらに具備する請求項10記載の情報処理装置。
  12. 前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
    前記画像認識手段は、
    前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の画像または前記第2の画像の撮像領域から画像認識処理の対象とする認識範囲を選出する絞り込み手段を有し、
    前記絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体それぞれについて、前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の画像または前記第2の画像のいずれを画像認識処理に用いるかを決定する
    請求項9記載の情報処理装置。
  13. 前記属性は、色、サイズ、形状、透明度の中の少なくとも1つを含む請求項9記載の情報処理装置。
  14. 表示面上にタッチパネルが設けられたディスプレイ装置と、前記タッチパネルへの入力に用いられた接触体を含む画像を撮像するためのカメラとを具備するコンピュータにより実行されるプログラムであって、前記プログラムは前記コンピュータを、
    前記カメラにより撮像された画像に対して画像認識処理を施し、前記接触体の種類を認識する画像認識手段と、
    前記タッチパネルへの入力開始から入力終了までの軌跡を前記画像認識手段により認識された前記接触体の種類に対応する属性を与えて前記ディスプレイ装置に表示する表示制御手段と、
    して動作させるものであり、
    前記プログラムは前記コンピュータを、
    前記画像認識手段が、
    前記タッチパネルから得られる入力情報に含まれる前記タッチパネルへの入力タイミングを示すタイミング情報に基づき、前記カメラにより撮像された画像の中から画像認識処理の対象とする画像を抽出する第1の絞り込み手段と、
    前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、前記第1の絞り込み手段により抽出された画像の撮像領域から画像認識処理の対象とする認識範囲を選出する第2の絞り込み手段と、
    を有するように動作させるものであるプログラム。
  15. 前記プログラムは前記コンピュータを、前記表示制御手段が、前記タッチパネルへの入力開始から前記接触体の種類が前記画像認識手段により認識されるまでの間、前記タッチパネルへの入力開始からの軌跡を所定の属性を与えて表示し、前記画像認識手段により前記接触体の種類が認識されたときに、前記所定の属性を前記接触体の種類に対応する属性に変更すべく表示を更新するように動作させる請求項14記載のプログラム。
  16. 前記プログラムは前記コンピュータを、
    前記画像認識手段が、前記タッチパネルへの入力開始から入力終了までの間、所定の間隔で前記接触体の種類を認識するための前記画像認識処理を実行し、
    前記表示制御手段が、前記タッチパネルへの入力開始からその時までの間に前記画像認識手段によって最も多い回数認識された前記接触体の種類に対応する属性を与えられて前記タッチパネルへの入力開始からの軌跡が前記ディスプレイ装置に表示されるように、前記タッチパネルへの入力開始からの軌跡の表示の更新を適応的に実行する
    ように動作させる請求項15記載のプログラム。
  17. 前記プログラムは前記コンピュータを、
    前記画像認識手段が、前記タッチパネルへの入力が開始されたときに、前記接触体の種類を認識するための前記画像認識処理を開始し、所定の間隔で、前記接触体の種類を認識するための前記画像認識処理を実行し、前記接触体の種類が認識できたときに、前記接触体の種類を認識するための前記画像認識処理の実行を停止するように動作させる請求項15記載のプログラム。
  18. 前記プログラムは前記コンピュータを、
    前記画像認識手段が、前記タッチパネルへの入力開始から入力終了までの間、所定の間隔で前記接触体の種類を認識するための前記画像認識処理を実行し、
    前記表示認識手段が、前記タッチパネルへの入力が終了するまでの間、前記タッチパネルへの入力開始から入力終了までの軌跡を所定の属性を与えて前記ディスプレイ装置に表示し、前記タッチパネルへの入力が終了したときに、前記所定の属性を、前記タッチパネルへの入力開始から入力終了までの間に前記画像認識手段によって最も多い回数認識された前記接触体の種類に対応する属性に変更すべく表示を更新する、
    ように動作させる請求項14記載のプログラム。
  19. 前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
    前記プログラムは前記コンピュータを、
    前記画像認識手段が、前記第2の絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体の種類をそれぞれ認識した後、前記タッチパネルから得られる入力情報に含まれる前記タッチパネル上における入力位置を示す位置情報に基づき、複数の認識結果と複数の軌跡との間の対応づけを行うように動作させる請求項14記載のプログラム。
  20. 前記タッチパネルは、複数の入力を同時に受け付けるマルチタッチ対応であり、
    前記プログラムは前記コンピュータを、
    前記画像認識手段が、前記第2の絞り込み手段により選出された複数の認識範囲が撮像領域上で重複している場合、前記複数の認識範囲が重複する撮像領域に含まれる複数の接触体の種類を認識するための前記画像認識処理を中止するように動作させる請求項14記載のプログラム。
JP2011042623A 2011-02-28 2011-02-28 情報処理装置およびプログラム Active JP5017466B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011042623A JP5017466B1 (ja) 2011-02-28 2011-02-28 情報処理装置およびプログラム
US13/311,457 US8957876B2 (en) 2011-02-28 2011-12-05 Information processing apparatus and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011042623A JP5017466B1 (ja) 2011-02-28 2011-02-28 情報処理装置およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012126266A Division JP5377713B2 (ja) 2012-06-01 2012-06-01 情報処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP5017466B1 JP5017466B1 (ja) 2012-09-05
JP2012181596A true JP2012181596A (ja) 2012-09-20

Family

ID=46718663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011042623A Active JP5017466B1 (ja) 2011-02-28 2011-02-28 情報処理装置およびプログラム

Country Status (2)

Country Link
US (1) US8957876B2 (ja)
JP (1) JP5017466B1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164755A (ja) * 2013-02-22 2014-09-08 Samsung Electronics Co Ltd センサを用いる近接動作認識装置及びその装置を用いた方法
JP2015090670A (ja) * 2013-11-07 2015-05-11 株式会社東芝 電子機器、方法およびプログラム
CN104750286A (zh) * 2013-12-26 2015-07-01 联想(北京)有限公司 一种数据获取方法及电子设备
JP2016024804A (ja) * 2014-07-17 2016-02-08 深▲せん▼市▲たい▼客科技有限公司 タッチデバイス
US10394434B2 (en) 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9218523B2 (en) * 2009-09-04 2015-12-22 Siemens Industry, Inc. System and method for determining authorship of a document
KR102061881B1 (ko) * 2012-10-10 2020-01-06 삼성전자주식회사 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
CN103076969A (zh) * 2012-12-27 2013-05-01 天津三星通信技术研究有限公司 移动终端显示屏输入系统及控制方法
TW201445426A (zh) * 2013-05-20 2014-12-01 Yi-Hau Su 一種手寫信號啟動程式方法
WO2017104272A1 (ja) * 2015-12-18 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017117312A (ja) * 2015-12-25 2017-06-29 株式会社リコー 情報処理装置、情報入力システム、情報処理方法およびプログラム
WO2021039114A1 (ja) * 2019-08-29 2021-03-04 富士フイルム株式会社 撮像装置、撮像装置の動作方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209487A (ja) * 2000-01-25 2001-08-03 Uw:Kk 筆跡通信システムおよび該システムで使用される筆跡入力装置及び筆跡表示装置
JP2003122505A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理システム、及びプログラム
JP2009037464A (ja) * 2007-08-02 2009-02-19 Sharp Corp 画像表示装置及びコンピュータプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144024A (ja) 1996-11-01 1999-05-28 Matsushita Electric Ind Co Ltd 画像合成装置、画像合成方法及び媒体
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
JP4414075B2 (ja) 2000-02-29 2010-02-10 株式会社リコー 座標入力/検出装置、座標検出方法及び記憶媒体
EP1805579A1 (en) * 2004-09-14 2007-07-11 Nokia Corporation A method for using a pointing device
JP4984975B2 (ja) * 2007-03-02 2012-07-25 株式会社ニコン カメラおよび画像処理プログラム
JP4513830B2 (ja) 2007-06-25 2010-07-28 ソニー株式会社 描画装置、及び描画方法
JP2009193323A (ja) 2008-02-14 2009-08-27 Sharp Corp 表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209487A (ja) * 2000-01-25 2001-08-03 Uw:Kk 筆跡通信システムおよび該システムで使用される筆跡入力装置及び筆跡表示装置
JP2003122505A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理システム、及びプログラム
JP2009037464A (ja) * 2007-08-02 2009-02-19 Sharp Corp 画像表示装置及びコンピュータプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164755A (ja) * 2013-02-22 2014-09-08 Samsung Electronics Co Ltd センサを用いる近接動作認識装置及びその装置を用いた方法
US10261612B2 (en) 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US10394434B2 (en) 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US10921926B2 (en) 2013-02-22 2021-02-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
JP2015090670A (ja) * 2013-11-07 2015-05-11 株式会社東芝 電子機器、方法およびプログラム
CN104750286A (zh) * 2013-12-26 2015-07-01 联想(北京)有限公司 一种数据获取方法及电子设备
CN104750286B (zh) * 2013-12-26 2017-12-29 联想(北京)有限公司 一种数据获取方法及电子设备
JP2016024804A (ja) * 2014-07-17 2016-02-08 深▲せん▼市▲たい▼客科技有限公司 タッチデバイス

Also Published As

Publication number Publication date
US20120218227A1 (en) 2012-08-30
US8957876B2 (en) 2015-02-17
JP5017466B1 (ja) 2012-09-05

Similar Documents

Publication Publication Date Title
JP5017466B1 (ja) 情報処理装置およびプログラム
US10409418B2 (en) Electronic device operating according to pressure state of touch input and method thereof
US8452057B2 (en) Projector and projection control method
JP5599741B2 (ja) 電子機器、コンテンツ表示方法、およびコンテンツ表示プログラム
JP6270565B2 (ja) 電子機器および方法
WO2015083290A1 (ja) 手書き文書情報を処理するための電子機器および方法
EP2626813B1 (en) Apparatus and method for guiding handwriting input for handwriting recognition
US20160179364A1 (en) Disambiguating ink strokes and gesture inputs
JP2011204141A (ja) 手書き入力装置、手書き入力方法及び手書き入力プログラム
JP5377713B2 (ja) 情報処理装置およびプログラム
US11023050B2 (en) Display control device, display control method, and computer program
US20150205483A1 (en) Object operation system, recording medium recorded with object operation control program, and object operation control method
US10684772B2 (en) Document viewing apparatus and program
CN104281318A (zh) 减少软键盘按压的显示延迟的方法和装置
JP5888423B2 (ja) 文字入力装置、文字入力方法、文字入力制御プログラム
JP2009151449A (ja) アンドゥー機能付き電子黒板
JP2014056389A (ja) 文字認識装置、文字認識方法及びプログラム
JP6373664B2 (ja) 電子機器、方法及びプログラム
JP6003566B2 (ja) オブジェクト操作装置及びオブジェクト操作制御プログラム
JP3874571B2 (ja) ジェスチャー処理装置及びジェスチャー処理方法
KR101654710B1 (ko) 손동작 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법
KR20100067192A (ko) 터치 스크린을 사용하는 디바이스에서 문자를 입력하기 위한 장치 및 방법
JP6455856B2 (ja) 手書文字入力装置及びコンピュータプログラム
JPH06251198A (ja) 文字入力装置
JP6376953B2 (ja) 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120611

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5017466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350