JP2014063265A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2014063265A
JP2014063265A JP2012206840A JP2012206840A JP2014063265A JP 2014063265 A JP2014063265 A JP 2014063265A JP 2012206840 A JP2012206840 A JP 2012206840A JP 2012206840 A JP2012206840 A JP 2012206840A JP 2014063265 A JP2014063265 A JP 2014063265A
Authority
JP
Japan
Prior art keywords
image
instruction
medium
same color
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012206840A
Other languages
English (en)
Other versions
JP5907022B2 (ja
Inventor
Koichi Hasegawa
浩一 長谷川
Hisao Aihara
久雄 相原
Toshiaki Kanemura
俊明 金村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Casio Electronics Co Ltd
Original Assignee
Casio Computer Co Ltd
Casio Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd, Casio Electronics Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012206840A priority Critical patent/JP5907022B2/ja
Priority to US14/029,535 priority patent/US9189865B2/en
Priority to CN201310428357.5A priority patent/CN103686026B/zh
Publication of JP2014063265A publication Critical patent/JP2014063265A/ja
Application granted granted Critical
Publication of JP5907022B2 publication Critical patent/JP5907022B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract


【課題】 指示媒体と似た色の箇所が投影画像内にあったとしても、指示媒体に対する検出精度を高める。
【解決手段】 指示媒体Fによって指示される被写体内の指示位置を特定する画像処理装置1である。画像処理装置1は、被写体を撮像する撮像手段(カメラ13)と、指示前画像を取得する第一撮像制御手段と、指示中画像を取得する第二撮像制御手段と、指示媒体Fと同程度の色の同色領域を指示前画像から特定し、当該同色領域に基づいて指示中画像から指示媒体部分を抽出する抽出手段と、抽出手段によって抽出された指示媒体部分が分断されているか否かを判断する判断手段と、判断手段で指示媒体部分が分断されていると判断された場合に、分断部分を周辺画像から修復する修復手段と、修復手段で修復された指示媒体部分の形状から被写体上の指示位置を特定する特定手段とを備えている。
【選択図】 図1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
従来、例えばプロジェクターなどの投影装置においては、投影されている画像内をレーザーポインタなどの指示媒体で選択することによりその選択領域が強調表示されるものが知られている(例えば特許文献1参照)。この強調表示を行うに際しては、投影されている画像を撮影し、その撮影画像に所定の画像処理を施すことによって指示媒体の指示箇所を特定することにより、選択領域を認識するようになっている。指示媒体の指示箇所を画像処理によって特定する場合、指示媒体の色に基づいて撮影画像中から前記指示媒体を検出する。なお、指示媒体が指や指示棒である場合にはその全体が指示媒体となるが、指示媒体がレーザーポインタである場合には画像上に投影されたレーザー光が指示媒体となる。
特開2006−121181号公報
ここで、指示媒体の指示箇所を画像処理によって特定する場合、指示媒体の色に基づいて撮影画像中から前記指示媒体を検出することになるが、撮影画像内に指示媒体と色の似た箇所があるとその箇所も指示媒体として誤検出してしまうおそれがあった。
そこで本発明の課題は、指示媒体と似た色の箇所が投影画像内にあったとしても、指示媒体に対する検出精度を高めることである。
以上の課題を解決するため、本発明の一の態様によれば、
指示媒体によって指示される被写体内の指示位置を特定する画像処理装置であって、
前記被写体を撮像する撮像手段と、
前記指示媒体が重なっていない状態の前記被写体を前記撮像手段で撮像した画像を指示前画像として取得する第一撮像制御手段と、
前記指示媒体が重なった状態の前記被写体を前記撮像手段で撮像した画像を指示中画像として取得する第二撮像制御手段と、
前記指示媒体と同程度の色の同色領域を前記指示前画像から特定し、当該同色領域に基づいて前記指示中画像から指示媒体部分を抽出する抽出手段と、
前記抽出手段によって抽出された前記指示媒体部分が分断されているか否かを判断する判断手段と、
前記判断手段で前記指示媒体部分が分断されていると判断された場合に、分断部分を周辺画像から修復する修復手段と、
前記修復手段で修復された前記指示媒体部分の形状から前記被写体上の指示位置を特定する特定手段とを備えることを特徴とする画像処理装置が提供される。
本発明によれば、指示媒体と似た色の箇所が投影画像内にあったとしても、指示媒体に対する検出精度を高めることができる。
本実施形態に係る画像処理システムとしての書画カメラ装置の概略構成を示す斜視図である。 図1の書画カメラ装置の主制御構成を示すブロック図である。 本実施形態に係る切り出し処理の流れを示すフローチャートである。 本実施形態に係る媒体認識前処理の流れを示すフローチャートである。 図4の媒体認識前処理時における撮像画像の状態遷移を表す説明図である。 本実施形態に係る切り出し領域特定処理の流れを示すフローチャートである。 本実施形態に係る指示位置特定処理の流れを示すフローチャートである。 図7の指示位置特定処理時における撮像画像の状態遷移を表す説明図である。 本実施形態に係る切り出し領域特定処理時における動作手順を示す説明図である。 本実施形態に係る切り出し領域特定処理時における動作手順を示す説明図である。 本実施形態に係る領域分析における画像処理の手順を示す説明図である。 本実施形態に係る切り出し領域に基づいて実際の切り出し部分を特定する例を示す説明図である。 本実施形態に係る第二指示位置特定処理で用いられる媒体認識前処理の流れを示すフローチャートである。 本実施形態に係る第二指示位置特定処理の流れを示すフローチャートである。 第二指示位置特定処理時における撮像画像の状態遷移を表す説明図である。 本実施形態の書画カメラ装置の変形例を示すブロック図である。
以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、発明の範囲を以下の実施形態及び図示例に限定するものではない。
図1は本実施形態に係る画像処理システムの概略構成を示す斜視図である。図1に示すように本発明に係る画像記録装置としての書画カメラ装置1には、資料2が載置される台座11と、台座11から立設するスタンド部12と、スタンド部12の上端部に取り付けられ、台座11上の資料2を撮像する撮像手段としてのカメラ13と、カメラ13に有線或いは無線で接続されるパソコン14とが設けられている。
資料2は本発明に係る被写体であり、カメラ13の撮像領域に収まるように台座11上にセットされている。図1上の被写体としては平面性を有する資料2を例示して挙げているが、本やそれ以外の立体物を被写体としても構わない。資料2に対して例えば指F等の指示媒体で所定の領域を指示すると、その指Fもカメラ13によって撮像されることになる。カメラ13は、高解像度で撮像をする高解像度モードと、高解像度モードよりも低い解像度で撮像をする低解像度モードとが切り替え自在となっている。
図2は図1の書画カメラ装置1の主制御構成を示すブロック図である。図2に示すようにカメラ13には焦点位置の調整等が可能な光学レンズ部131と、光学レンズ部131を透過した被写体像をデジタル信号に変換するイメージセンサ132と、イメージセンサ132により変換されたデジタル信号をパソコン14に出力するI/F133とが設けられている。
パソコン14は、カメラ13から入力されたデジタル信号を常にモニタリングしている。このとき、指Fが重なっていない状態の資料2がカメラ13によって撮像された画像をパソコン14は指示前画像5(図5参照)として取得する。さらに、指Fが重なった状態の資料2がカメラ13によって撮像された画像をパソコン14は指示中画像6(図8参照)として取得する。つまりパソコン14が本発明に係る第一撮像制御手段及び第二撮像制御手段である。そして、パソコン14は、取得した指示前画像5と指示中画像6とから資料2上の指Fによる指示位置を特定し、当該特定した指示位置に基づいて資料2内の一部の画像を切り出すようになっている。
以下、画像の切り出し処理について詳細に説明する。図3は切り出し処理の流れを示すフローチャートである。
まず、作業者はマウスやキーボードなどの操作部を操作することによりパソコン14に対して切り出し処理の開始指示を入力する。この指示に基づいてパソコン14は本発明に係るプログラムを実行しカメラ13を初期化する。この初期化時においてはカメラ13の解像度は低解像度モードに設定される(ステップS1)。
このとき、カメラ13は撮影を実行しているため、当該カメラ13により撮像された映像はパソコン14に送られ、当該パソコン14のディスプレイに表示されている。この表示画像を見ながら、作業者は資料2の位置調整を行い、最適な位置へ資料2を案内する。
資料2の位置が決定したら作業者は操作部を操作し以降の工程への進行を促す。
ステップS2では、パソコン14は媒体認識前処理を実行する。図4は媒体認識前処理の流れを示すフローチャートである。図5は媒体認識前処理時における撮像画像の状態遷移を表す説明図であり、(a)は指示前画像5を示し、(b)はマスク領域を示し、(c)は指示前画像5から同色領域51を削除した状態を示している。
マスク領域とは、同色領域とされる領域であり、同色領域とともに詳しくは後述する。
図4に示すようにステップS11では、パソコン14はカメラ13を制御して、資料2に指Fが重なっていない指示前画像5(図5(a)参照)を撮像し、低解像度なカラー画像データを取り込む(第一撮像工程、第一撮像ステップ)。
ステップS12では、パソコン14は取り込んだ指示前画像5から同色領域51を抽出する(同色領域抽出工程、同色領域抽出ステップ)。このようにパソコン14は本発明に係る同色領域抽出手段である。同色領域51とは、指示媒体が指Fである場合には肌色と同程度の色を有する領域のことである。
なお、肌色と言っても白人、黒人、黄色人種等のように人種によって肌の色が異なる場合もあれば、個人差による違いもあり、さらには同一人物であっても季節によって肌の色が異なる。このため、これらを包含するように肌色として認識する許容範囲を予め設定していてもよいし、人種毎の許容範囲が個別に登録されていて、使用する人種によって該当する許容範囲を選択するようにしてもよい。
また、例えば指示棒やレーザーポインタなどのような指F以外の指示媒体を用いる場合には、その指示媒体と同程度の色を有する領域を同色領域51とする。この場合においても光の当たり具合によっては指示媒体の色が多少違って撮像されてしまうので、指示媒体と同程度の色として認識するように許容範囲を設定しておくことが好ましい。
そして図4のステップS13では、パソコン14は指示前画像5内に同色領域51があるか否かを判断し、ない場合には媒体認識前処理を終えてステップS3に移行し、ある場合にはステップS14に移行する。
ステップS14では、パソコン14は同色領域51を図5(b)に示すマスク領域52として指定し同色マスクデータを作成する(指定工程、指定ステップ)。このようにパソコン14は本発明に係る指定手段である。
この同色マスクデータに基づいて指示前画像5を画像処理すると同色領域51が削除された図5(c)のような指示前画像5が作成される。同色マスクデータの作成後にはパソコン14は媒体認識前処理を終えてステップS3に移行する。
図3のステップS3では、パソコン14は切り出し領域特定処理を実行する。図6はその切り出し領域特定処理の流れを示すフローチャートである。
ステップS21ではパソコン14は指示位置特定処理を実行する。図7はその指示位置特定処理の流れを示すフローチャートであり、図8は指示位置特定処理時における撮像画像の状態遷移を表す説明図である。
図7のステップS31では、パソコン14はカメラ13を制御して、資料2に対するカラー撮像を開始する。このときカメラ13からの映像はパソコン14によって常にモニタリングされることになる。
ステップS32では、パソコン14は同色マスクデータの有無を判断して、同色マスクデータがある場合にはステップS33に移行し、同色マスクデータのない場合にはステップS36に移行する。
ステップS32で同色マスクデータがあるとされた場合、ステップS33に移行し、そこでは、パソコン14はカメラ13から入力された映像内であって、同色マスクデータからなるマスク領域52外の領域に新たな同色領域53があるか否かを判断し、ない場合にはそのままカメラ13によるカラー撮像を継続し、ある場合にはステップS34に移行する。例えば図8(a)に示すように資料2に指Fが重なっていると、マスク領域52外においても指Fが存在しているので、パソコン14は図8(a)に示す画像を指示中画像6として取得する(第二撮像工程、第二撮像ステップ)。
ステップS34では、パソコン14は指示中画像6から同色領域52(51),53を抽出する。
ステップS35では、パソコン14は抽出した同色領域52(51),53からマスク領域52内を削除してステップS38に移行する(削除工程、削除ステップ)。このようにパソコン14は本発明に係る削除手段である。図8(b)は指示中画像6からマスク領域52内を削除した状態を示している。
一方、ステップS32で同色マスクデータがないとされた場合、ステップS36に移行し、そこでは、パソコン14はカメラ13から入力された映像内に同色領域53があるか否かを判断する。例えば図8(a)の指示中画像6内にマスク領域52が存在しない場合が、前記映像内に同色領域53がある場合であり、指示中画像6内にマスク領域52も指Fもない状態が、前記映像内に同色領域53がない場合である。パソコン14は同色領域53がない場合にはそのままカメラ13によるカラー撮像を継続し、同色領域53がある場合にはステップS37に移行する。
ステップS37では、パソコン14は指示中画像6から同色領域53を抽出し、抽出した同色領域53を指示媒体部分Eとして認識して、ステップS38に移行する(指示媒体抽出工程、指示媒体抽出ステップ)。このようにパソコン14は本発明に係る指示媒体抽出手段である。そして、同色領域51を指示前画像5から特定し、当該同色領域51に基づいて指示中画像6から指示媒体部分Eを抽出するまでの工程若しくはステップが本発明に係る抽出工程若しくは抽出ステップである。つまりパソコン14は本発明に係る抽出手段である。
ステップS38では、パソコン14は指示中画像6から抽出した同色領域53に対してラベリング処理を施す。例えば指示中画像6中に同色領域が1つの場合、つまり指示媒体部分Eが分断していない場合には同色領域数は1となる。図8(b)に示すようにマスク領域52によって指示媒体部分Eが分断されている場合には同色領域数は複数となる。なお、マスク領域52が存在していない場合であっても指輪や腕時計、リストバンドなどによって指示媒体部分Eが分断される場合もあるがこの場合においても同色領域数は複数となる。
ステップS39では、パソコン14は同色領域数が2以上であるか否かを判断し、同色領域数が2未満である場合には後述するステップS41に移行し、同色領域数が2以上である場合にはステップS40に移行する(判断工程、判断ステップ)。このようにパソコン14は本発明に係る判断手段である。
ステップS40では、パソコン14は指示媒体部分Eのうち分断されて欠損した部分を周辺画像から修復する(修復工程、修復ステップ)。このようにパソコン14は本発明に係る修復手段である。
具体的には、図8(c)に示すようにマスク領域52内の各画素を修復画素として、各修復画素に最も近いマスク領域52外の画素の色を当該修復画素の色として決定する。これにより、マスク領域52内の修復画素を決定し、同色領域52bとなる修復画素も決定し、ステップS41に移行する。なお、図8(c)中、同色領域とならなかった修復画素は無地として符号52aを付している。一方、同色領域となった修復画素はハッチングを掛け符号52bを付している。なお、マスク領域52が存在していない状態で指示媒体部分Eが分断している場合においては、その分断している部分に仮想的な枠体をはめ込む。そしてその枠体をマスク領域52と仮定して、上述した手順で修復画素の色を決定する。
ステップS41では、パソコン14は二値化処理を施して同色領域52b、53の輪郭を抽出する。図8(d)では図8(c)に示した指示中画像6における同色領域52b、53の輪郭52c(点線部)を示している。なお、同色領域数が1である場合には指示媒体部分Eの修復自体も不要であるため、その1つの同色領域の輪郭を抽出することになる。
ステップS42では、パソコン14は指示媒体部分Eの輪郭52cから最も突出した位置を指示位置として特定する(特定工程、特定ステップ)。このようにパソコン14は本発明に係る特定手段である。図8(e)では輪郭52cのみを示しており、その最も突出した位置52dが指示位置として特定される。指示位置の特定後、パソコン14は図7の処理(図6のステップS21)を抜け、ステップS22に移行する。
ステップS22では、パソコン14は特定した指示位置の座標が一定時間、略同位置の場所に留まっているか否かを判断する。具体的には、一定時間毎に、ステップS21の処理を行い、特定した指示位置の座標が一定時間、略同位置に場所に留まっているか否かを判断する。ここで「略同位置」とは完全に同じ位置でなくとも、指示位置が多少ぶれていても同じ位置と判断できるように所定の許容範囲を含んだ位置のことである。
ステップS22で、特定した指示位置の座標が一定時間、略同位置の場所に留まっているとされた場合、ステップS23に移行し、そこでは、パソコン14はステップS21で特定した指示位置を開始点座標として記録する。
ここでの一定時間は、開始点座標を認識させるために、後述の一定時間よりも比較的長い時間とする。
ステップS24では、パソコン14は上述の一定時間より短い所定時間の経過を待つ。
ステップS25では、パソコン14は上述した図7の処理(ステップS21の処理)と同じ指示位置特定処理を実行し、現在の指示位置を特定する。
ステップS26では、パソコン14はステップS24で一定時間経過した後にステップS25で特定した指示位置の座標を記録する。
このようにして、パソコン14は所定時間毎にステップS25で特定した指示位置の座標を記録していく。
ステップS27では、パソコン14はステップS26で記録した指示位置と、開始点座標とが略一致しているか否かを判断し、略一致していない場合にはステップS24に移行し、略一致している場合には図6の処理(図3のステップS3の処理)を抜け、図3のステップS4に移行する。ここで「略一致」とは完全に一致していなくとも、指示位置が開始点座標から多少離れていても一致と判断できるように所定の許容範囲を含んだ位置のことである。
このように、指示位置が開始点座標に復帰するまでステップS24〜ステップS27が繰り返されるため、指Fによる指示位置の座標が多数記録されて、枠状の切り出し領域が特定されることになる。
具体的に切り出し領域特定処理時における動作例について説明する。図9及び図10は切り出し領域特定処理時における動作手順を示す説明図である。
まず図9(a)に示すように資料2の全体像を指示前画像G2として低画質モードで撮像する。
その後、図9(b)に示すように、ユーザは資料2上に指Fを置く。その状態のまま一定時間経過すると、パソコン14側では特定した指示位置を開始点座標f1として認識する。
そして、図10(a)に示すように、ユーザは指Fを移動させる。このとき、パソコン14側では指Fの軌跡f2を特定するため、その指示位置を所定時間毎に記録している。
そして、図10(b)に示すように、ユーザは所望の領域を含むような軌跡f2となるように指Fを移動させて最終的に開始点座標f1付近に指Fを置く。これによりパソコン14側では指Fの軌跡が多数の座標として記録され、枠状の切り出し領域cとして特定される。
図3に示すように、ステップS4ではパソコン14はカメラ13の解像度を高解像度モードに設定する。
ステップS5ではパソコン14はカメラ13を制御して、資料2に指Fが重なっていない指示前画像5を再度撮像し、高解像度なカラー画像データを基準画像として取り込む。
ステップS6ではパソコン14は基準画像に対して領域分析を施す。図11は領域分析における画像処理の手順を示す説明図であり、(a)は基準画像の一例を示し、(b)は基準画像に対してぼかし処理を施した画像を示し、(c)は資料2中の各領域の輪郭を抽出した画像を示している。図11(a)に示すように基準画像G1には、数字からなる第一文字領域m1と、アルファベットからなる第二文字領域m2と、画像からなる画像領域m3とが設けられている。
まず図11(a)に示すカラーの基準画像G1をパソコン14はモノクロ多値画像に変換する。変換後の基準画像G1に対してパソコン14は特定のフィルタをかけて基準画像をぼかす(図11(b)参照)。これにより各領域m1,m2,m3がそれぞれ一体的に連結される。次いで、パソコン14は、ぼかした基準画像G1を二値化して輪郭抽出を行う(図11(c)参照)。輪郭抽出では、各領域m1,m2,m3の輪郭n1,n2,n3が多数の点列から構成されることになる。パソコン14は各点列の座標データを取得し、当該座標データを各領域m1,m2,m3の座標データとして記録する。
なお、この領域分析処理においては、高画質な基準画像に対して直接実行してもよいし、高画質で撮像された基準画像を低画質な画像に変換し、当該低画質な基準画像に対して実行してもよい。また、ステップS2の媒体認識前処理と合わせて領域分析処理を実行してもよい。
ステップS7ではパソコン14は切り出し領域特定処理で特定された切り出し領域cに基づいて高解像度画像(基準画像G1)の一部を切り出す。図12は切り出し領域cに基づいて実際の切り出し部分を特定する例を示す説明図である。なお、以下の説明においては実際の切り出し部分の特定方法を2種類説明するが、その他の周知の特定方法を用いても構わない。
まず、パソコン14は図12(a)に示すように、各領域m1,m2,m3の輪郭n1,n2,n3と、切り出し領域cとを重ね合わせる。
そして第一特定方法においては、パソコン14は各領域m1,m2,m3の輪郭n1,n2,n3と切り出し領域cとの重なっている割合を算出する。この割合が50%以上であれば実際の切り出し部分として特定する。具体的には図12(b)に示すように第一文字領域m1は切り出し領域cに100%重なっているので実際の切り出し部分として特定する。第二文字領域m2は切り出し領域cに30%程度で重なっているので実際の切り出し部分としては特定しない。画像領域m3は切り出し領域cに全く重なっていないので実際の切り出し領域として特定しない。この結果からパソコン14は第一文字領域m1のみを基準画像G1から切り出して図12(c)に示すように第一文字領域m1のみを画像データとして記録する。
第二特定方法においては、図12(d)に示すようにパソコン14は切り出し領域cを内接する矩形領域c1を作成する。そしてこの矩形領域c1に一部でも含まれている領域を実際の切り出し部分として特定する。図12(d)では第一文字領域m1と第二文字領域m2が実際の切り出し部分として特定され、矩形領域c1に全く重なっていない画像領域m3は実際の切り出し部分として特定されない。この結果からパソコン14は第一文字領域m1及び第二文字領域m2を基準画像G1から切り出して図12(e)に示すように第一文字領域m1及び第二文字領域m2を画像データとして記録する。
パソコン14は実際の切り出し部分として特定した部分の画像データを基に、ディスプレイ上に表示を行ったり、プリンタから印刷したりする。
以上のように本実施形態によれば、指Fと同じ色の同色領域51を指示前画像5から特定し、当該同色領域51に基づいて指示中画像6から指示媒体部分Eを抽出しているので、指示前画像5内に同色領域51があったとしてもその同色領域51は指Fでないことを予め見越して指示中画像6から指示媒体部分Eを抽出することができる。したがって、指Fなどの指示媒体と似た色の箇所が投影画像内にあったとしても、指示媒体に対する検出精度を高めることができる。
また、指示中画像6から指F部分を抽出した際に、指示媒体部分Eが分断されていると分断部分を修復し、その修復された指示媒体部分Eの形状から資料2上の指示位置を特定しているので、指Fなどの指示媒体の全体像を確実に特定することが可能となる。したがって、資料2上の指示位置をより確実に検出することができる。
指示位置特定処理の解像度が、被写体を撮像して指示位置に基づいて行う別の画像処理の解像度よりも低く設定しているので、高解像度画像に対して指示位置特定処理を実行する場合よりも処理負荷を低減することができ、指示位置特定処理の高速化を図ることができる。
指示前画像5に存在する同色領域51をマスク領域52として指示中画像6から削除しているので、指示中画像6内に存在する指F以外の同色領域51が指F部分として特定されてしまうことを防止することができる。
また、指示中画像6内にマスク領域52をなす同色領域51がある場合に、マスク領域52を指示中画像6から削除しているので、マスク領域52が指定されていない場合はこの処理は行われず、全体的な処理の高速化を図ることができる。
また、マスク領域52が指定されなかった場合、修復が不要な1つの同色領域の輪郭形状から指示位置を特定しているので、マスク領域52となる同色領域51がない場合にあっても確実に指Fの指示位置を特定することができる。
同様に同色領域数が1つの場合、つまり指示媒体部分Eが分断されていない場合においても、修復が不要な1つの同色領域の輪郭形状から指示位置を特定しているので、マスク領域52となる同色領域51がない場合にあっても確実に指Fの指示位置を特定することができる。
また、修復された指示媒体部分Eのうち最も突出した位置を指示位置として特定しているので、指示媒体である指Fの先端部を指示媒体部分Eの形状から確実に特定することができる。
指示位置特定処理が所定時間毎に繰り返し行われているため、指示中画像6の取得や、指示媒体部分Eの抽出、指示媒体部分Eが分断しているかの判断、指示媒体部分Eの修復、指示位置の特定も所定時間毎に繰り返し行われることになる。いずれの指示位置特定処理においても静止画である指示中画像6に基づいて処理が行われるので、複数の指示位置を容易に特定することができる。
また、所定時間毎に特定された複数の指示位置によって規定される軌跡f2で囲まれた領域を切り出し領域cとして特定しているので、切り出したい領域を指Fでなぞるという直感的な操作により切り出し領域cを特定することができる。
また、特定された切り出し領域cを指示前画像5から切り出しているので、資料2の特定部分だけを切り出して記録又は印刷することが可能である。
なお、本発明は上記実施形態に限らず適宜変更可能である。
例えば、上記実施形態では、マスク領域52を適用した指示位置特定処理を例示して説明したが、指示前画像と指示中画像との差分を適用した指示位置特定処理を用いることも可能である。以下の説明においては差分を適用した指示位置特定処理を第二指示位置特定処理と称す。
なお、第二指示位置特定処理を実行する場合には、前述した媒体認識前処理も一部異なる処理内容となる。図13は第二指示位置特定処理用の媒体認識前処理の流れを示すフローチャートである。この図13に示す媒体認識前処理のステップS51では、パソコン14はカメラ13によって指示前画像5を撮像し、低解像度なカラー画像データを取り込み、図7(図6のステップS21)の指示位置特定処理に対応する図14の第二指示位置特定処理に移行する。
図14は第二指示位置特定処理の流れを示すフローチャートであり、図15は第二指示位置特定処理時における撮像画像の状態遷移を表す説明図である。
図14のステップS61では、パソコン14はカメラ13を制御して、資料2に対するカラー撮像を開始する。このときカメラ13からの映像はパソコン14によって常にモニタリングされることになる。
ステップS62では、パソコン14はカメラ13から入力された映像内の同色領域を抽出する。
ステップS63では、パソコン14は指示前画像5で同色領域と判断される箇所以外の領域に、新たに追加された同色領域があるか否かを判断し、ない場合にはステップS62に移行してそのままカメラ13によるカラー撮像を継続し、ある場合にはその画像を指示中画像6として取得しステップS64に移行する。ここでの判断によって図15(a)に示すようにカメラ13の撮像領域内に指Fが進入して指示中画像6となったことを判断している。
ステップS64では、パソコン14は指示前画像5と指示中画像6との差分画像を作成する。指示前画像5内に同色領域がない場合には単に指Fの部分だけが差分画像として作成される。一方、図15(a)に示すように指示前画像5内に同色領域51がある場合には、当該同色領域51と重なる指Fが同色領域51のままと判断されるため、図15(b)に示すように同色領域51外の同色領域53が差分画像として作成される。
ステップS65では、パソコン14は差分画像から同色領域53を抽出し、抽出した同色領域53を指示媒体部分Eとして認識する。なお、ここでの同色領域53の抽出によって影などのノイズが除去されることになる(影除去工程、影除去ステップ)。このようにパソコン14が本発明に係る影除去手段である。
ステップS66では、パソコン14は指示媒体部分Eに対して後述する二値化処理、輪郭抽出等の前処理を行う。
ステップS67では、パソコン14は同色領域53に対してラベリングを施す。
ステップS68では、パソコン14は同色領域数が2以上であるか否かを判断し、同色領域数が2未満である場合にはステップS71に移行し、同色領域数が2以上である場合にはステップS69に移行する。
ステップS69では、パソコン14は指示媒体部分Eのうち分断されて欠損した部分を周辺画像からカラー画像において修復する。
ステップS70では、パソコン14は修復された画像に二値化処理を施して指示媒体部分Eの輪郭を抽出する。
なお、ステップS68で、同色領域数が2未満であると判断された場合には、すでに二値化処理、輪郭処理は済んでいるので、ステップS71に移行する。
ステップS71では、パソコン14は指示媒体部分Eの輪郭52cから最も突出した位置52dを指示位置として特定する(図8(e)参照)。
このように指示前画像5と指示中画像6とを比較し、指示中画像6で新たに追加された同色領域を指示媒体部分Eとして抽出しているので、差分画像を用いたとしても指示位置を容易に特定することができる。
また、指示中画像6から影部分が除去された指示媒体部分Eに基づいて当該指示媒体部分Eが分断されているか否かを判断しているので、ノイズとなる影の影響を抑制した状態で分断しているか否かを判断することができ、判断の正確性を高めることができる。
また、上記実施形態ではカメラ13の撮像により得られた画像データに対してパソコン14が種々の画像処理を施す場合を例示したが、カメラ側で画像データに対する画像処理を実行することも可能である。具体的には、図16に示すように、カメラ13Aには、光学レンズ部131と、イメージセンサ132と、イメージセンサ132により変換されたデジタル信号を記録するRAM134(メモリーカード等を含む)と、各種プログラムが記録されたROM135(EEPROM等を含む)と、RAM134内の画像データに対して画像処理を施す画像処理部136と、各種指示が入力される操作部137と、操作部137からの指示に基づいてROM135中のプログラムを読み出し、光学レンズ部131、イメージセンサ132、画像処理部136等を制御するCPU138と、各種データをパソコン14に出力するI/F133とが備えられている。
カメラ13AのROM135には、本発明に係るプログラムが記憶されている。このプログラムをカメラ13AのCPU238が実行することによって、切り出し処理が実行される。つまり、カメラ13AのCPU238が本発明に係る撮像手段、第一撮像制御手段、第二撮像制御手段、抽出手段、判断手段、修復手段、同色領域抽出手段、指定手段、削除手段、指示媒体抽出手段、影除去手段である。そして撮像処理によって切り出された画像データはパソコン14に送られ記録される。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
[請求項1]
指示媒体によって指示される被写体内の指示位置を特定する画像処理装置であって、
前記被写体を撮像する撮像手段と、
前記指示媒体が重なっていない状態の前記被写体を前記撮像手段で撮像した画像を指示前画像として取得する第一撮像制御手段と、
前記指示媒体が重なった状態の前記被写体を前記撮像手段で撮像した画像を指示中画像として取得する第二撮像制御手段と、
前記指示媒体と同程度の色の同色領域を前記指示前画像から特定し、当該同色領域に基づいて前記指示中画像から指示媒体部分を抽出する抽出手段と、
前記抽出手段によって抽出された前記指示媒体部分が分断されているか否かを判断する判断手段と、
前記判断手段で前記指示媒体部分が分断されていると判断された場合に、分断部分を周辺画像から修復する修復手段と、
前記修復手段で修復された前記指示媒体部分の形状から前記被写体上の指示位置を特定する特定手段とを備えることを特徴とする画像処理装置。
[請求項2]
本付記欄の上記1記載の画像処理装置において、
前記特定手段によって前記被写体上の指示位置を特定する際の画像処理の解像度は、前記被写体を撮像して前記指示位置に基づいて行う別の画像処理の解像度よりも低く設定されていることを特徴とする画像処理装置。
[請求項3]
本付記欄の上記1又は2記載の画像処理装置において、
前記抽出手段は、
前記指示前画像から前記同色領域を抽出する同色領域抽出手段と、
前記同色領域抽出手段で抽出された前記同色領域をマスク領域として、前記指示前画像から指定する指定手段と、
前記指定手段で指定された前記マスク領域を前記指示中画像から削除する削除手段と、
前記削除手段で前記マスク領域が削除された前記指示中画像から前記同色領域を特定し、当該同色領域を前記指示媒体部分として抽出する指示媒体抽出手段とを備えることを特徴とする画像処理装置。
[請求項4]
本付記欄の上記3記載の画像処理装置において、
前記削除手段は、前記指示中画像内に前記マスク領域をなす前記同色領域がある場合に、前記指定手段で指定された前記マスク領域を前記指示中画像から削除することを特徴とする画像処理装置。
[請求項5]
本付記欄の上記3又は4に記載の画像処理装置において、
前記特定手段は、前記指定手段で前記マスク領域が指定されなかった場合に、前記修復手段による修復を行わない前記指示媒体部分の形状から前記被写体上の指示位置を特定することを特徴とする画像処理装置。
[請求項6]
本付記欄の上記1又は2記載の画像処理装置において、
前記抽出手段は、前記指示前画像と前記指示中画像とを比較し、前記指示中画像で新たに追加された前記同色領域を前記指示媒体部分として抽出することを特徴とする画像処理装置。
[請求項7]
本付記欄の上記6記載の画像処理装置において、
前記抽出手段は、前記指示媒体部分から影部分を除去する影除去手段を含み、
前記判断手段は、前記影除去手段によって前記指示中画像から影部分が除去された前記指示媒体部分に基づいて当該指示媒体部分が分断されているか否かを判断することを特徴とする画像処理装置。
[請求項8]
本付記欄の上記1〜7のいずれか一項に記載の画像処理装置において、
前記特定手段は、前記判断手段によって前記指示媒体部分が分断されていないと判断された場合に、前記修復手段で修復しない前記指示媒体部分の形状から前記被写体上の指示位置を特定することを特徴とする画像処理装置。
[請求項9]
本付記欄の上記1〜8のいずれか一項に記載の画像処理装置において、
前記特定手段は、前記修復手段で修復された前記指示媒体部分のうち最も突出した位置を前記指示位置として特定することを特徴とする画像処理装置。
[請求項10]
本付記欄の上記1〜9のいずれか一項に記載の画像処理装置において、
前記第二撮像制御手段は前記指示中画像を所定時間毎に取得し、
前記特定手段は、前記所定時間毎に取得された前記指示中画像に対して、前記指示媒体部分の形状から前記被写体上の指示位置を特定することを特徴とする画像処理装置。
[請求項11]
本付記欄の上記10記載の画像処理装置において、
前記特定手段は、前記所定時間毎に特定された複数の前記指示位置によって規定される軌跡に囲まれた領域を特定することを特徴とする画像処理装置。
[請求項12]
本付記欄の上記11記載の画像処理装置において、
前記特定手段によって特定された領域を前記指示前画像から切り出す切り出し手段をさらに備えることを特徴とする画像処理装置。
[請求項13]
本付記欄の上記1記載の画像処理装置において、
指示媒体によって指示される被写体内の指示位置を特定する画像処理方法であって、
前記指示媒体が重なっていない状態の前記被写体を撮像した画像を指示前画像として取得する第一撮像工程と、
前記指示媒体が重なった状態の前記被写体を撮像した画像を指示中画像として取得する第二撮像工程と、
前記指示媒体と同程度の色の同色領域を前記指示前画像から特定し、当該同色領域に基づいて前記指示中画像から指示媒体部分を抽出する抽出工程と、
前記抽出工程によって抽出された前記指示媒体部分が分断されているか否かを判断する判断工程と、
前記判断工程で前記指示媒体部分が分断されていると判断された場合に、分断部分を周辺画像から修復する修復工程と、
前記修復工程で修復された前記指示媒体部分の形状から前記被写体上の指示位置を特定する特定工程とを備えることを特徴とする画像処理方法。
[請求項14]
指示媒体によって指示される被写体内の指示位置を特定する画像処理装置で実行されるプログラムであって、
前記指示媒体が重なっていない状態の前記被写体を撮像した画像を指示前画像として取得する第一撮像ステップと、
前記指示媒体が重なった状態の前記被写体を撮像した画像を指示中画像として取得する第二撮像ステップと、
前記指示媒体と同程度の色の同色領域を前記指示前画像から特定し、当該同色領域に基づいて前記指示中画像から指示媒体部分を抽出する抽出ステップと、
前記抽出ステップによって抽出された前記指示媒体部分が分断されているか否かを判断する判断ステップと、
前記判断ステップで前記指示媒体部分が分断されていると判断された場合に、分断部分を周辺画像から修復する修復ステップと、
前記修復ステップで修復された前記指示媒体部分の形状から前記被写体上の指示位置を特定する特定ステップとを含むことを特徴とするプログラム。
1 書画カメラ装置(画像処理装置)
2 資料(被写体)
5 指示前画像
6 指示中画像
11 台座
12 スタンド部
13 カメラ(撮像手段)
14 パソコン(第一撮像制御手段、第二撮像制御手段、抽出手段、判断手段、修復手段、同色領域抽出手段、指定手段、削除手段、指示媒体抽出手段、影除去手段)
21 台座
51,52b,53 同色領域
52 マスク領域
52c 輪郭
52d 位置(指示位置)
E 指示媒体部分
F 指(指示媒体)
f1 開始点座標
f2 軌跡

Claims (14)

  1. 指示媒体によって指示される被写体内の指示位置を特定する画像処理装置であって、
    前記被写体を撮像する撮像手段と、
    前記指示媒体が重なっていない状態の前記被写体を前記撮像手段で撮像した画像を指示前画像として取得する第一撮像制御手段と、
    前記指示媒体が重なった状態の前記被写体を前記撮像手段で撮像した画像を指示中画像として取得する第二撮像制御手段と、
    前記指示媒体と同程度の色の同色領域を前記指示前画像から特定し、当該同色領域に基づいて前記指示中画像から指示媒体部分を抽出する抽出手段と、
    前記抽出手段によって抽出された前記指示媒体部分が分断されているか否かを判断する判断手段と、
    前記判断手段で前記指示媒体部分が分断されていると判断された場合に、分断部分を周辺画像から修復する修復手段と、
    前記修復手段で修復された前記指示媒体部分の形状から前記被写体上の指示位置を特定する特定手段とを備えることを特徴とする画像処理装置。
  2. 請求項1記載の画像処理装置において、
    前記特定手段によって前記被写体上の指示位置を特定する際の画像処理の解像度は、前記被写体を撮像して前記指示位置に基づいて行う別の画像処理の解像度よりも低く設定されていることを特徴とする画像処理装置。
  3. 請求項1又は2記載の画像処理装置において、
    前記抽出手段は、
    前記指示前画像から前記同色領域を抽出する同色領域抽出手段と、
    前記同色領域抽出手段で抽出された前記同色領域をマスク領域として、前記指示前画像から指定する指定手段と、
    前記指定手段で指定された前記マスク領域を前記指示中画像から削除する削除手段と、
    前記削除手段で前記マスク領域が削除された前記指示中画像から前記同色領域を特定し、当該同色領域を前記指示媒体部分として抽出する指示媒体抽出手段とを備えることを特徴とする画像処理装置。
  4. 請求項3記載の画像処理装置において、
    前記削除手段は、前記指示中画像内に前記マスク領域をなす前記同色領域がある場合に、前記指定手段で指定された前記マスク領域を前記指示中画像から削除することを特徴とする画像処理装置。
  5. 請求項3又は4に記載の画像処理装置において、
    前記特定手段は、前記指定手段で前記マスク領域が指定されなかった場合に、前記修復手段による修復を行わない前記指示媒体部分の形状から前記被写体上の指示位置を特定することを特徴とする画像処理装置。
  6. 請求項1又は2記載の画像処理装置において、
    前記抽出手段は、前記指示前画像と前記指示中画像とを比較し、前記指示中画像で新たに追加された前記同色領域を前記指示媒体部分として抽出することを特徴とする画像処理装置。
  7. 請求項6記載の画像処理装置において、
    前記抽出手段は、前記指示媒体部分から影部分を除去する影除去手段を含み、
    前記判断手段は、前記影除去手段によって前記指示中画像から影部分が除去された前記指示媒体部分に基づいて当該指示媒体部分が分断されているか否かを判断することを特徴とする画像処理装置。
  8. 請求項1〜7のいずれか一項に記載の画像処理装置において、
    前記特定手段は、前記判断手段によって前記指示媒体部分が分断されていないと判断された場合に、前記修復手段で修復しない前記指示媒体部分の形状から前記被写体上の指示位置を特定することを特徴とする画像処理装置。
  9. 請求項1〜8のいずれか一項に記載の画像処理装置において、
    前記特定手段は、前記修復手段で修復された前記指示媒体部分のうち最も突出した位置を前記指示位置として特定することを特徴とする画像処理装置。
  10. 請求項1〜9のいずれか一項に記載の画像処理装置において、
    前記第二撮像制御手段は前記指示中画像を所定時間毎に取得し、
    前記特定手段は、前記所定時間毎に取得された前記指示中画像に対して、前記指示媒体部分の形状から前記被写体上の指示位置を特定することを特徴とする画像処理装置。
  11. 請求項10記載の画像処理装置において、
    前記特定手段は、前記所定時間毎に特定された複数の前記指示位置によって規定される軌跡に囲まれた領域を特定することを特徴とする画像処理装置。
  12. 請求項11記載の画像処理装置において、
    前記特定手段によって特定された領域を前記指示前画像から切り出す切り出し手段をさらに備えることを特徴とする画像処理装置。
  13. 指示媒体によって指示される被写体内の指示位置を特定する画像処理方法であって、
    前記指示媒体が重なっていない状態の前記被写体を撮像した画像を指示前画像として取得する第一撮像工程と、
    前記指示媒体が重なった状態の前記被写体を撮像した画像を指示中画像として取得する第二撮像工程と、
    前記指示媒体と同程度の色の同色領域を前記指示前画像から特定し、当該同色領域に基づいて前記指示中画像から指示媒体部分を抽出する抽出工程と、
    前記抽出工程によって抽出された前記指示媒体部分が分断されているか否かを判断する判断工程と、
    前記判断工程で前記指示媒体部分が分断されていると判断された場合に、分断部分を周辺画像から修復する修復工程と、
    前記修復工程で修復された前記指示媒体部分の形状から前記被写体上の指示位置を特定する特定工程とを備えることを特徴とする画像処理方法。
  14. 指示媒体によって指示される被写体内の指示位置を特定する画像処理装置で実行されるプログラムであって、
    前記指示媒体が重なっていない状態の前記被写体を撮像した画像を指示前画像として取得する第一撮像ステップと、
    前記指示媒体が重なった状態の前記被写体を撮像した画像を指示中画像として取得する第二撮像ステップと、
    前記指示媒体と同程度の色の同色領域を前記指示前画像から特定し、当該同色領域に基づいて前記指示中画像から指示媒体部分を抽出する抽出ステップと、
    前記抽出ステップによって抽出された前記指示媒体部分が分断されているか否かを判断する判断ステップと、
    前記判断ステップで前記指示媒体部分が分断されていると判断された場合に、分断部分を周辺画像から修復する修復ステップと、
    前記修復ステップで修復された前記指示媒体部分の形状から前記被写体上の指示位置を特定する特定ステップとを含むことを特徴とするプログラム。
JP2012206840A 2012-09-20 2012-09-20 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP5907022B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012206840A JP5907022B2 (ja) 2012-09-20 2012-09-20 画像処理装置、画像処理方法及びプログラム
US14/029,535 US9189865B2 (en) 2012-09-20 2013-09-17 Image processing device, image processing method and computer readable storage medium
CN201310428357.5A CN103686026B (zh) 2012-09-20 2013-09-18 图像处理装置以及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012206840A JP5907022B2 (ja) 2012-09-20 2012-09-20 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014063265A true JP2014063265A (ja) 2014-04-10
JP5907022B2 JP5907022B2 (ja) 2016-04-20

Family

ID=50274534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012206840A Expired - Fee Related JP5907022B2 (ja) 2012-09-20 2012-09-20 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US9189865B2 (ja)
JP (1) JP5907022B2 (ja)
CN (1) CN103686026B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228208A (ja) * 2014-05-02 2015-12-17 株式会社半導体エネルギー研究所 情報処理装置
WO2019087331A1 (ja) * 2017-11-01 2019-05-09 ヤマハ株式会社 基準位置検出装置および基準位置検出方法
JP2020197460A (ja) * 2019-06-03 2020-12-10 株式会社インフォマティクス 構造物の検査システム、構造物の検査方法及びプログラム
CN112561830A (zh) * 2020-12-23 2021-03-26 安徽大学 一种内窥镜图像高亮点修复方法及装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10070005B2 (en) * 2015-04-23 2018-09-04 Sonali Deshpande Identification document holding system
JP6848837B2 (ja) * 2017-11-30 2021-03-24 京セラドキュメントソリューションズ株式会社 画像処理装置
CN108551552B (zh) * 2018-05-14 2020-09-01 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及移动终端
KR102373961B1 (ko) * 2021-09-10 2022-03-15 (주)웅진씽크빅 독서 지원 장치 및 이를 이용한 사용자 입력 감지 방법
KR102373960B1 (ko) * 2021-09-10 2022-03-15 (주)웅진씽크빅 독서 지원 장치 및 이를 이용한 사용자 입력 감지 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176565A (ja) * 2009-01-30 2010-08-12 Denso Corp 操作装置
JP2011118533A (ja) * 2009-12-01 2011-06-16 Tokyo Denki Univ タッチ位置入力装置及びタッチ位置入力方法
JP2011145765A (ja) * 2010-01-12 2011-07-28 Seiko Epson Corp 画像処理装置、画像表示システム、及び画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1246450B1 (en) * 2001-03-29 2010-05-26 Panasonic Corporation Image reading apparatus
JP4540358B2 (ja) * 2004-02-10 2010-09-08 富士通株式会社 ポインタ位置特定プログラムおよびポインタ位置特定方法
JP2006121181A (ja) 2004-10-19 2006-05-11 Casio Comput Co Ltd プロジェクタ装置、表示出力方法及び表示出力プログラム
JP2008090563A (ja) * 2006-09-29 2008-04-17 Brother Ind Ltd 投影装置
WO2008041605A1 (fr) * 2006-09-29 2008-04-10 Brother Kogyo Kabushiki Kaisha Appareil de projection, support d'enregistrement comportant un programme enregistré en lui, procédé de projection et système de projection
JP2009043139A (ja) * 2007-08-10 2009-02-26 Mitsubishi Electric Corp 位置検出装置
JP5493895B2 (ja) * 2009-04-03 2014-05-14 セイコーエプソン株式会社 白色を含む複数色のインクを用いた印刷
US20100253975A1 (en) * 2009-04-06 2010-10-07 Kabushiki Kaisha Toshiba Print server and data managing method in print server

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176565A (ja) * 2009-01-30 2010-08-12 Denso Corp 操作装置
JP2011118533A (ja) * 2009-12-01 2011-06-16 Tokyo Denki Univ タッチ位置入力装置及びタッチ位置入力方法
JP2011145765A (ja) * 2010-01-12 2011-07-28 Seiko Epson Corp 画像処理装置、画像表示システム、及び画像処理方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228208A (ja) * 2014-05-02 2015-12-17 株式会社半導体エネルギー研究所 情報処理装置
US10497082B2 (en) 2014-05-02 2019-12-03 Semiconductor Energy Laboratory Co., Ltd. Information processing device
WO2019087331A1 (ja) * 2017-11-01 2019-05-09 ヤマハ株式会社 基準位置検出装置および基準位置検出方法
JP2020197460A (ja) * 2019-06-03 2020-12-10 株式会社インフォマティクス 構造物の検査システム、構造物の検査方法及びプログラム
CN112561830A (zh) * 2020-12-23 2021-03-26 安徽大学 一种内窥镜图像高亮点修复方法及装置
CN112561830B (zh) * 2020-12-23 2022-11-18 安徽大学 一种内窥镜图像高亮点修复方法及装置

Also Published As

Publication number Publication date
CN103686026A (zh) 2014-03-26
JP5907022B2 (ja) 2016-04-20
US20140079318A1 (en) 2014-03-20
US9189865B2 (en) 2015-11-17
CN103686026B (zh) 2016-08-31

Similar Documents

Publication Publication Date Title
JP5907022B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9547791B2 (en) Image processing system, image processing apparatus, image processing method, and program
US8254630B2 (en) Subject extracting method and device by eliminating a background region using binary masks
US7869706B2 (en) Shooting apparatus for a microscope
US20130076854A1 (en) Image processing apparatus, image processing method, and computer readable medium
JP4537143B2 (ja) 画像処理装置及びその方法、撮像装置、プログラム
JP4848521B2 (ja) プロジェクタ投影映像のマウス代替操作方法およびそのマウス代替操作システム
US9396405B2 (en) Image processing apparatus, image processing method, and image processing program
US11551339B2 (en) Information processing apparatus, information processing method, and storage medium
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JP2007048108A (ja) 画像評価システム及び画像評価方法並びに画像評価プログラム
WO2005055144A1 (ja) 人物顔のあご検出方法及びあご検出システム並びにあご検出プログラム
JP6694907B2 (ja) 判定装置、判定方法及び判定プログラム
KR101551427B1 (ko) 홍채 인식 기능을 지원하는 이동 단말기
JP5563390B2 (ja) 画像処理装置およびその制御方法、及びプログラム
JP5519202B2 (ja) 画像処理装置およびプログラム
JP4809869B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5745128B2 (ja) 画像処理装置
JP7443965B2 (ja) 情報処理装置、補正方法、プログラム
JP2015033002A (ja) 画像処理装置、画像処理方法及びプログラム
KR101280840B1 (ko) 프리젠테이션 시스템의 스크린상에서 레이저 포인트 위치 좌표 인식 방법
JP2011033455A (ja) 画像処理装置およびプログラム
JP2016194835A (ja) 情報抽出方法、情報抽出プログラム及び情報抽出装置
JP2006190106A (ja) パターン検出プログラムおよびパターン検出装置
JP2004213215A (ja) 画像入力方法及び画像入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R150 Certificate of patent or registration of utility model

Ref document number: 5907022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees