JP2010154088A - 位置と画像とを対応付ける画像処理 - Google Patents

位置と画像とを対応付ける画像処理 Download PDF

Info

Publication number
JP2010154088A
JP2010154088A JP2008328328A JP2008328328A JP2010154088A JP 2010154088 A JP2010154088 A JP 2010154088A JP 2008328328 A JP2008328328 A JP 2008328328A JP 2008328328 A JP2008328328 A JP 2008328328A JP 2010154088 A JP2010154088 A JP 2010154088A
Authority
JP
Japan
Prior art keywords
image
timing
imaging
scanner
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008328328A
Other languages
English (en)
Inventor
Wong Tzy Huei
ツー フェイ ウォン
Hii San An
ヒィー サン アン
Joanne Goh Li Chen
ゴー リー チェン ジョエン
Gunawan Sutono
グナワン ストノ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008328328A priority Critical patent/JP2010154088A/ja
Priority to US12/638,924 priority patent/US20100157012A1/en
Priority to CN2009102657089A priority patent/CN101763173B/zh
Publication of JP2010154088A publication Critical patent/JP2010154088A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00976Arrangements for regulating environment, e.g. removing static electricity
    • H04N1/00997Light control, e.g. shielding from ambient light or preventing light leakage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40056Circuits for driving or energising particular reading heads or original illumination means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】位置を表す位置データと画像を表す画像データとの対応精度を向上させる。
【解決手段】装置は、所定の検出タイミングで装置の位置を検出する位置検出部と、検出タイミングに同期した発光タイミングで発光する光源部と、発光された光を利用して被写体を撮像する撮像部と、検出された装置の位置を表す位置データと撮像により取得された画像データとを対応付ける画像処理部と、を備える。
【選択図】図3

Description

本発明は、位置と画像とを対応付ける画像処理を行う技術に関する。
位置センサとリニアイメージセンサを有し、ポインティングデバイス(マウス)として機能すると共に、イメージスキャナとして機能する装置が知られている(例えば特許文献1参照)。この装置では、装置を移動させつつ撮像により画像データを取得し、取得された複数の列(または行)の画像データと位置センサにより検出された位置を表す位置データとが対応付けられる。この画像データは、対応付けられた位置データに基づき合成され、1つの2次元画像を表す画像データが生成される。
特開平11−345074号公報
上記従来の技術では、位置を表す位置データと画像を表す画像データとの対応精度に向上の余地があった。位置データと画像データとの対応精度が低い場合には、例えば、位置データに基づく画像データの合成により生成される画像の質を十分に高くすることができない。
なお、このような問題は、位置データに基づき画像データを合成する場合に限らず、位置を表す位置データと画像を表す画像データとを対応付ける場合に共通の問題であった。
本発明は、上述した従来の課題を解決するためになされたものであり、位置を表す位置データと画像を表す画像データとの対応精度を向上させることを目的とする。
上記課題の少なくとも一部を解決するために、本発明は、以下の形態または適用例として実現することが可能である。
[適用例1]装置であって、
所定の検出タイミングで前記装置の位置を検出する位置検出部と、
前記検出タイミングに同期した発光タイミングで発光する光源部と、
前記発光された光を利用して被写体を撮像する撮像部と、
検出された前記装置の位置を表す位置データと前記撮像により取得された画像データとを対応付ける画像処理部と、を備える、装置。
この装置では、位置検出部による位置検出タイミングに同期した発光タイミングで光源部が発光し、発光された光を利用して被写体が撮像され、検出された装置の位置を表す位置データと撮像により取得された画像データとが対応付けられるため、位置を表す位置データと画像を表す画像データとの対応精度を向上させることができる。
[適用例2]適用例1に記載の装置であって、
前記撮像部は、互いに露光期間が異なる複数の画素群を含むエリアイメージセンサを有し、
前記発光タイミングは、前記エリアイメージセンサのすべての前記画素群が露光状態にある期間内における前記検出タイミングに同期したタイミングである、装置。
この装置では、互いに露光期間が異なる複数の画素群を含むエリアイメージセンサを用いて撮像を行う場合にも、エリアイメージセンサのすべての画素群が露光状態にある期間内において光源部の発光タイミングが設定されるため、撮像により取得される画像における歪みを抑制することができる。
[適用例3]適用例1または適用例2に記載の装置であって、
前記検出タイミングは、予め設定された時間経過毎のタイミングである、装置。
この装置では、検出タイミングが予め設定された時間経過毎のタイミングである位置検出部を用いて装置の位置を検出する場合においても、位置検出部による位置検出タイミングに同期した発光タイミングで光源部を発光させることにより、位置を表す位置データと画像を表す画像データとの対応精度を向上させることができる。
[適用例4]適用例1ないし適用例3のいずれかに記載の装置であって、さらに、
コンピュータと接続するインタフェース部と、
検出された前記装置の位置に応じた信号を、ユーザ指示を表す信号として前記コンピュータに伝達するユーザ指示入力部と、を備える、装置。
この装置では、位置検出部により検出された装置の位置に応じた信号をユーザ指示を表す信号としてコンピュータに伝達する機能を有する装置において、位置を表す位置データと画像を表す画像データとの対応精度を向上させることができる。
なお、本発明は、種々の態様で実現することが可能であり、例えば、画像処理を行う方法および装置、画像を生成する方法および装置、これらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体等の形態で実現することができる。
次に、本発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.実施例:
B.変形例:
A.実施例:
図1は、本発明の実施例におけるマウススキャナ100の外観を示す説明図である。また、図2は、マウススキャナ100を含むコンピュータシステム10の機能的構成を示すブロック図である。図2に示すように、コンピュータシステム10は、マウススキャナ100と、パーソナルコンピュータ(以下「PC」とも呼ぶ)200と、を備えている。
本実施例のマウススキャナ100は、ユーザ指示入力装置としてのマウス機能と画像読み取り装置(画像生成装置)としてのイメージスキャナ機能とを有し、マウス機能を提供するマウスモードとイメージスキャナ機能を提供するスキャナモードとの間で動作モードを切り替えつつ動作する。
マウススキャナ100は、マウス機能を実現するマウス機構120と、イメージスキャナ機能を実現するスキャナ機構130と、ボタンやホイールといった操作部140と、デバイスコントローラ152を含むUSBインタフェース(USB I/F)150と、マウススキャナ100全体を制御する制御部110と、を有している。また、PC200は、ホストコントローラ252を含むUSBインタフェース(USB I/F)250と、PC200全体を制御する制御部210と、を有している。
本実施例のマウススキャナ100およびPC200は、USBインタフェースに対応する装置である。マウススキャナ100のUSBインタフェース150とPC200のUSBインタフェース250とは、USBケーブル160を介して接続される。この状態で、PC200はUSBホストとして機能し、マウススキャナ100はUSBデバイスとして機能する。
マウススキャナ100のマウス機構120は、自身の位置を検出する位置センサ122を含んでいる。位置センサ122は、マウススキャナ100に固定されており、位置センサ122が自身の位置を検出することは、マウススキャナ100の位置を検出することと実質的に同義である。位置センサ122は、所定の検出タイミングで、マウススキャナ100の位置(基準となる位置からの移動方向および移動量)を表す位置データを出力する。
マウススキャナ100のスキャナ機構130は、エリアイメージセンサとしてのCMOSセンサ132と光源としてのLED134とを含んでいる。CMOSセンサ132は、640列(ロー)×480行(ライン)の2次元画素配列のそれぞれの画素に配置されたフォトダイオードを有しており、被写体を撮像して画像を取得する。CMOSセンサ132は、いわゆるローリングシャッター方式を採用しており、後述するように、画素のライン毎に露光期間がずれている。
制御部110は、図示しないCPUおよびメモリを有している。制御部110は、メモリ内の所定のコンピュータプログラムを読み出して実行することにより、マウスモードにおいてはマウスとしてのマウススキャナ100の動作を制御するマウス制御部112として機能し、スキャナモードにおいてはイメージスキャナとしてのマウススキャナ100の動作を制御するスキャナ制御部114として機能する。
具体的には、マウス制御部112は、マウスモードにおいて、位置センサ122により出力される位置データやユーザによる操作部140の操作(ボタンの押下等)を検知した信号を、ユーザ指示を表す信号としてPC200に伝達する。PC200の制御部210は、マウススキャナ100からユーザ指示を表す信号を受信し、受信した信号の内容に応じて、例えば図示しないディスプレイに表示されるポインタの位置を移動したり、所定の処理の実行を開始したりする。
また、スキャナ制御部114は、スキャナモードにおいて、スキャナ機構130のCMOSセンサ132やLED134を制御して、マウススキャナ100の底面に設けられたウィンドウ(不図示)に対向する被写体を撮像し、画像データを取得する。また、スキャナ制御部114は、位置センサ122により出力される位置データと取得された画像データとを対応付け、対応付けられた位置データおよび画像データをPC200に送信する。なお、スキャナモードにおいて、スキャナ制御部114は、本発明における画像処理部として機能する。PC200の制御部210は、マウススキャナ100から位置データおよび画像データを受信し、例えば、位置データに基づく画像合成処理(スティッチング)を行う。ここで、スティッチングと呼ばれる画像合成処理は、位置データに基づき複数の画像相互の位置関係を特定し、複数の画像を合成してより広い範囲の被写体を表す画像を生成する処理である。スキャナモードにおいて、マウススキャナ100を移動させつつ撮像を行い、PC200においてスティッチングを行うことにより、広範囲な被写体の読み取りが可能となる。
マウススキャナ100の操作部140は、ユーザによる動作モードの切り替え指示を受領する切り替えスイッチ142を含んでいる。本実施例のマウススキャナ100では、マウスモードでの動作中に切り替えスイッチ142がユーザにより押下されると、マウスモードからスキャナモードへと動作モードが切り替えられる。反対に、スキャナモードでの動作中に切り替えスイッチ142がユーザにより押下されると、スキャナモードからマウスモードへと動作モードが切り替えられる。
図3は、スキャナモードにおけるタイミングチャートの一例を示す説明図である。図3における各信号の内、「Vsync」はCMOSセンサ132の垂直同期信号を示しており、「Hsync」はCMOSセンサ132の水平同期信号を示しており、「出力」はCMOSセンサ132の画像信号出力タイミングを示しており、「ラインi露光」(ただしi=0〜479)はCMOSセンサ132のi番目の画素ラインの露光タイミングを示しており、「LEDフラッシュ」はLED134の発光タイミングを示しており、「位置センサ読み取り」は位置センサ122の位置検出タイミングを示している。
図3に示すように、CMOSセンサ132の露光期間は、ライン毎にずれている。すなわち、CMOSセンサ132の0番目のライン(ライン0)については、Hsyncの0番目の立ち下がりから1番目の立ち下がりの期間が電荷転送のためのシフト期間であり、その他の期間が露光期間となっている。また、1番目のライン(ライン1)については、Hsyncの1番目の立ち下がりから2番目の立ち下がりの期間が電荷転送のためのシフト期間であり、その他の期間が露光期間となっている。なお、479番目のライン(ライン479)のシフト期間終了から0番目のラインのシフト期間開始までの期間(図3の期間tf)においては、CMOSセンサ132のすべてのラインが露光状態となる。
位置センサ122は、図3に示す位置センサ読み取り信号の立ち上がりのタイミングでマウススキャナ100の位置を検出する。本実施例では、位置センサ122の位置検出タイミングは、2ミリ秒経過毎のタイミングで固定されている。
LED134は、図3に示すLEDフラッシュ信号の立ち上がりのタイミングで発光する。LED134の発光継続期間は、マウススキャナ100のスキャナモードにおける想定最大移動速度と発光継続期間におけるCMOSセンサ132の許容画素ずれ量とに基づき算出され、本実施例では100マイクロ秒に設定されている。また、本実施例では、LED134の発光タイミングは、CMOSセンサ132のすべてのラインが露光状態となる期間tf内であって、かつ、位置センサ122の位置検出タイミングと同期したタイミングとなっている。
LED134の発光期間においては、CMOSセンサ132のすべてのラインが露光状態であるため、CMOSセンサ132のすべてのフォトダイオイードにおいて、対向する被写体の色に応じた電荷が蓄積される。蓄積された電荷は、ライン毎のシフト期間においてシフトされ、収集されたすべてのライン分の電荷に基づき、CMOSセンサ132全体に対応する画像データが生成される。また、LED134の発光タイミングと同期した検出タイミングで検出されたマウススキャナ100の位置を表す位置データが、LED134の発光により撮像・生成された画像データと対応付けられる。
以上説明したように、本実施例のマウススキャナ100では、LED134の発光タイミングが位置センサ122の位置検出タイミングと同期したタイミングとされている。そのため、本実施例では、位置センサ122により出力される位置データの表すマウススキャナ100の位置と、LED134の発光を利用したCMOSセンサ132による撮像時のマウススキャナ100の位置とのずれを最小化することができる。従って、本実施例では、位置を表す位置データと画像を表す画像データとの対応精度を向上させることができる。そのため、例えば、上述したように画像データに対応付けられた位置データに基づき画像の合成を行う場合に、画像同士の位置ずれを最小化することができ、合成画像の質を向上させることができる。
また、本実施例のマウススキャナ100では、CMOSセンサ132のすべてのラインが露光状態となる期間(図3の期間tf)においてLED134が発光する。LED134の発光期間が、ある画素(例えば1番目のラインの画素)のシフト期間に当たる場合には、当該画素は受光できず、当該画素の画像信号は前回の発光時に対応する信号のままとなる。このとき、前回の発光時から今回の発行時までの間にマウススキャナ100が移動した場合には、画像に歪みが発生してします。本実施例のマウススキャナ100では、CMOSセンサ132のすべてのラインが露光状態となる期間においてLED134が発光するため、撮像により取得される画像の歪みを抑制することができる。
なお、イメージセンサの中にはVsyncの周期を変更可能なものがあり、そのようなイメージセンサを採用する場合には、イメージセンサのVsyncの周期を位置センサ122の検出タイミングの周期(本実施例では2ミリ秒)の整数倍に調整することによっても、位置データと画像データとの対応精度を向上させることができる。しかしながら、本実施例では、イメージセンサとしてのCMOSセンサ132のVsyncの周期が変更できない場合であっても、LED134の発光タイミングを位置センサ122の位置検出タイミングと同期させることにより、位置データと画像データとの対応精度を向上させることができる。
なお、上述したように、本実施例のマウススキャナ100では、LED134の発光継続期間におけるCMOSセンサ132の画素ずれを低減するために、LED134の発光継続期間を100マイクロ秒という比較的短い時間に設定している。また、LED134は、USBケーブル160を介してPC200から供給される100ミリアンペアのUSBバスパワーを電源として発光する。そのため、スキャナ機構130は、図4に示すストロボ回路を有する。LED134の発光継続期間以外の期間においては、電源供給側のスイッチが接続されてキャパシタCに電荷が蓄積される。LED134の発光タイミングにおいて、LED制御側のスイッチが接続され、キャパシタCに蓄積された電荷がLED134に供給される。スキャナ機構130は、このようなストロボ回路を有するため、USBバスパワーを電源としつつ、比較的短い発光継続期間においてLED134の発光に必要な電流を供給することができる。
B.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
B−1.変形例1:
上記実施例では、マウススキャナ100を例に用いて説明したが、本発明はマウススキャナ100に限らず、位置検出部と光源部と撮像部と画像処理部とを有する装置一般に適用可能である。例えば、本発明は、マウスとしての機能を有さないハンディスキャナにも適用可能である。
B−2.変形例2:
上記実施例では、マウススキャナ100は互いに対応付けられた位置データおよび画像データをPC200に送信し、PC200が位置データおよび画像データを用いてスティッチングを行うとしているが、マウススキャナ100自身が位置データおよび画像データを用いてスティッチングを行い、画像合成後の画像をPC200に送信するものとしてもよい。
B−3.変形例3:
上記実施例におけるコンピュータシステム10の構成はあくまで一例であり、コンピュータシステム10の構成は種々変更可能である。例えば、CMOSセンサ132のサイズ(画素数)は上述したものに限られない。また、スキャナ機構130がCMOSセンサ132以外のイメージセンサであって、互いに露光期間が異なる複数の画素群を含むエリアイメージセンサを撮像部として有しているとしてもよい。また、スキャナ機構130が撮像部としてラインイメージセンサを有する場合にも、本発明は適用可能である。また、スキャナ機構130が、LED134以外の光源を有しているとしてもよい。また、マウススキャナ100は、USBインタフェースに対応している必要はなく、他のインタフェースによりPC200と接続されるものとしてもよい。
B−4.変形例4:
上記実施例のスキャナモードにおけるタイミングチャート(図3)はあくまで一例であり、タイミングチャートにおける各信号は種々変更可能である。例えば、本実施例では、ライン479のシフト期間の後の期間tfにおいてLED134の発光が行われているが、位置センサ122の検出タイミングに同期したタイミングであれば、他のタイミングで発光するものとしてもよい。また、LED134の発光タイミングは、必ずしも、CMOSセンサ132のすべてのラインが露光状態となる期間内である必要ない。ただし、LED134の発光タイミングをCMOSセンサ132のすべてのラインが露光状態となる期間内に設定すれば、取得される画像における歪みを抑制することができる。また、上述した位置センサ122の検出タイミングの間隔や、LED134の発光継続期間の長さは種々変更可能である。
B−5.変形例5:
上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。
また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータプログラム)は、コンピュータ読み取り可能な記録媒体に格納された形で提供することができる。コンピュータ読み取り可能な記録媒体とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピュータ内の内部記憶装置や、ハードディスク等のコンピュータに固定されている外部記憶装置も含んでいる。
本発明の実施例におけるマウススキャナ100の外観を示す説明図である。 マウススキャナ100を含むコンピュータシステム10の機能的構成を示すブロック図である。 スキャナモードにおけるタイミングチャートの一例を示す説明図である。 ストロボ回路の構成を示す説明図である。
符号の説明
10…コンピュータシステム
100…マウススキャナ
110…制御部
112…マウス制御部
114…スキャナ制御部
120…マウス機構
122…位置センサ
130…スキャナ機構
132…CMOSセンサ
134…LED
140…操作部
142…切り替えスイッチ
150…USBインタフェース
152…デバイスコントローラ
160…USBケーブル
200…PC
210…制御部
250…USBインタフェース
252…ホストコントローラ

Claims (6)

  1. 装置であって、
    所定の検出タイミングで前記装置の位置を検出する位置検出部と、
    前記検出タイミングに同期した発光タイミングで発光する光源部と、
    前記発光された光を利用して被写体を撮像する撮像部と、
    検出された前記装置の位置を表す位置データと前記撮像により取得された画像データとを対応付ける画像処理部と、を備える、装置。
  2. 請求項1に記載の装置であって、
    前記撮像部は、互いに露光期間が異なる複数の画素群を含むエリアイメージセンサを有し、
    前記発光タイミングは、前記エリアイメージセンサのすべての前記画素群が露光状態にある期間内における前記検出タイミングに同期したタイミングである、装置。
  3. 請求項1または請求項2に記載の装置であって、
    前記検出タイミングは、予め設定された時間経過毎のタイミングである、装置。
  4. 請求項1ないし請求項3のいずれかに記載の装置であって、さらに、
    コンピュータと接続するインタフェース部と、
    検出された前記装置の位置に応じた信号を、ユーザ指示を表す信号として前記コンピュータに伝達するユーザ指示入力部と、を備える、装置。
  5. 方法であって、
    (a)所定の検出タイミングで位置を検出する工程と、
    (b)前記検出タイミングに同期した発光タイミングで光源を発光させる工程と、
    (c)前記発光された光を用いて被写体を撮像する工程と、
    (d)前記検出された位置を表す位置データと前記撮像により取得された画像データとを対応付ける工程と、を備える、方法。
  6. プログラムであって、
    所定の検出タイミングで位置を検出する機能と、
    前記検出タイミングに同期した発光タイミングで光源を発光させる機能と、
    前記発光された光を用いて被写体を撮像する機能と、
    前記検出された位置を表す位置データと前記撮像により取得された画像データとを対応付ける機能と、をコンピュータに実現させる、プログラム。
JP2008328328A 2008-12-24 2008-12-24 位置と画像とを対応付ける画像処理 Pending JP2010154088A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008328328A JP2010154088A (ja) 2008-12-24 2008-12-24 位置と画像とを対応付ける画像処理
US12/638,924 US20100157012A1 (en) 2008-12-24 2009-12-15 Image processing matching position and image
CN2009102657089A CN101763173B (zh) 2008-12-24 2009-12-24 使位置和图像对应的图像处理

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008328328A JP2010154088A (ja) 2008-12-24 2008-12-24 位置と画像とを対応付ける画像処理

Publications (1)

Publication Number Publication Date
JP2010154088A true JP2010154088A (ja) 2010-07-08

Family

ID=42265430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008328328A Pending JP2010154088A (ja) 2008-12-24 2008-12-24 位置と画像とを対応付ける画像処理

Country Status (3)

Country Link
US (1) US20100157012A1 (ja)
JP (1) JP2010154088A (ja)
CN (1) CN101763173B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095631A (ja) * 2012-11-09 2014-05-22 Sharp Corp 3次元計測装置および3次元計測方法
US9503597B1 (en) 2015-07-29 2016-11-22 Teco Image Systems Co., Ltd. Image capture method and image capture and synthesis method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101628238B1 (ko) * 2009-12-21 2016-06-21 삼성전자주식회사 화상을 독취하는 장치 및 방법
JP6794214B2 (ja) * 2016-10-24 2020-12-02 キヤノン株式会社 読取制御装置、制御方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06237340A (ja) * 1993-02-09 1994-08-23 Asahi Optical Co Ltd 画像入力装置
JPH11345074A (ja) * 1998-04-30 1999-12-14 Hewlett Packard Co <Hp> ハンドヘルド・ポインティングおよび走査デバイス
JP2000099711A (ja) * 1998-09-15 2000-04-07 Hewlett Packard Co <Hp> ナビゲ―ション位置取得方法
JP2001274957A (ja) * 2000-03-28 2001-10-05 Fuji Xerox Co Ltd 画像読取装置
JP2005174280A (ja) * 2003-11-18 2005-06-30 Canon Inc 画像取得装置、指紋認証装置及び画像取得方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4543571A (en) * 1982-11-05 1985-09-24 Universal Supply, Inc. Opto-mechanical cursor positioning device
US4851921A (en) * 1986-06-12 1989-07-25 Casio Computer Co., Ltd. Manual sweeping, image data processing apparatus
US4906843A (en) * 1987-12-31 1990-03-06 Marq Technolgies Combination mouse, optical scanner and digitizer puck
US4984287A (en) * 1988-11-15 1991-01-08 Msc Technologies, Inc. Method for orienting a dual mouse optical scanner
US4942621A (en) * 1988-11-15 1990-07-17 Msc Technologies, Inc. Method for mapping scanned pixel data
DE69114891T2 (de) * 1990-04-12 1996-05-23 Canon Kk Bildlesevorrichtung.
US5446481A (en) * 1991-10-11 1995-08-29 Mouse Systems Corporation Multidimensional hybrid mouse for computers
US5420943A (en) * 1992-04-13 1995-05-30 Mak; Stephen M. Universal computer input device
CA2097360A1 (en) * 1992-06-03 1993-12-04 Paul Dvorkis Optical readers
US6804016B2 (en) * 1993-01-18 2004-10-12 Canon Kabushiki Kaisha Control apparatus for a scanner/printer
US5530455A (en) * 1994-08-10 1996-06-25 Mouse Systems Corporation Roller mouse for implementing scrolling in windows applications
US6513717B2 (en) * 2000-12-07 2003-02-04 Digimarc Corporation Integrated cursor control and scanner device
JPH09128474A (ja) * 1995-10-31 1997-05-16 Tec Corp バーコードスキャナ装置
US5729008A (en) * 1996-01-25 1998-03-17 Hewlett-Packard Company Method and device for tracking relative movement by correlating signals from an array of photoelements
US6233066B1 (en) * 1997-08-06 2001-05-15 Matsushita Electric Industrial Co., Ltd. Image processing apparatus, method for image processing, and image reader apparatus
US6906699B1 (en) * 1998-04-30 2005-06-14 C Technologies Ab Input unit, method for using the same and input system
CN1196075C (zh) * 1998-10-05 2005-04-06 佳能株式会社 图象读取装置
JP4148441B2 (ja) * 1998-10-29 2008-09-10 光雄 中山 イメージスキャナおよびこれを用いた光学的文字認識装置
US6429422B1 (en) * 1999-11-12 2002-08-06 Hewlett-Packard Company Scanner navigation system with variable aperture
US6303921B1 (en) * 1999-11-23 2001-10-16 Hewlett-Packard Company Method and system for capturing large format documents using a portable hand-held scanner
JP2002204342A (ja) * 2000-12-27 2002-07-19 Sharp Corp 画像入力装置および記録媒体、並びに画像合成方法
US7042600B2 (en) * 2002-01-07 2006-05-09 Xerox Corporation Method and apparatus for eliminating lamp strobing in a digital input scanner
KR100555587B1 (ko) * 2002-04-25 2006-03-03 문영찬 스캐너 기능 및 마우스 기능을 동시에 갖는 장치 및 방법
KR100622404B1 (ko) * 2002-10-23 2006-09-13 주식회사 애트랩 광 이미지 검출기 및 이를 채택하는 광 마우스
CN100458670C (zh) * 2003-05-19 2009-02-04 株式会社伊特 使用了区域图像传感器的位置检测装置
US7623689B2 (en) * 2003-11-18 2009-11-24 Canon Kabushiki Kaisha Image pick-up apparatus including luminance control of irradiation devices arranged in a main scan direction
US20080142598A1 (en) * 2006-12-14 2008-06-19 Sik Piu Kwan Method, system, and apparatus for an electronic freeze frame shutter for a high pass-by image scanner
JP2008310448A (ja) * 2007-06-12 2008-12-25 Konica Minolta Business Technologies Inc 制御プログラム、画像形成装置及び制御システム並びに制御方法
US8011583B2 (en) * 2007-07-02 2011-09-06 Microscan Systems, Inc. Systems, devices, and/or methods for managing data matrix lighting
US8189965B2 (en) * 2008-11-17 2012-05-29 Image Trends, Inc. Image processing handheld scanner system, method, and computer readable medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06237340A (ja) * 1993-02-09 1994-08-23 Asahi Optical Co Ltd 画像入力装置
JPH11345074A (ja) * 1998-04-30 1999-12-14 Hewlett Packard Co <Hp> ハンドヘルド・ポインティングおよび走査デバイス
JP2000099711A (ja) * 1998-09-15 2000-04-07 Hewlett Packard Co <Hp> ナビゲ―ション位置取得方法
JP2001274957A (ja) * 2000-03-28 2001-10-05 Fuji Xerox Co Ltd 画像読取装置
JP2005174280A (ja) * 2003-11-18 2005-06-30 Canon Inc 画像取得装置、指紋認証装置及び画像取得方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095631A (ja) * 2012-11-09 2014-05-22 Sharp Corp 3次元計測装置および3次元計測方法
US9503597B1 (en) 2015-07-29 2016-11-22 Teco Image Systems Co., Ltd. Image capture method and image capture and synthesis method
JP2017034643A (ja) * 2015-07-29 2017-02-09 東友科技股▲ふん▼有限公司Teco Image Systems Co.,Ltd. 撮像方法と画像撮像及び合成方法

Also Published As

Publication number Publication date
CN101763173A (zh) 2010-06-30
CN101763173B (zh) 2012-08-29
US20100157012A1 (en) 2010-06-24

Similar Documents

Publication Publication Date Title
US11722784B2 (en) Imaging device that generates multiple-exposure image data
KR102481774B1 (ko) 이미지 장치 및 그것의 동작 방법
US20050237422A1 (en) Image capturing sensor and image capturing apparatus
JP6839089B2 (ja) 内視鏡装置、内視鏡装置の作動方法、および記録媒体
JP2011028629A (ja) プレゼンテーションシステム
JP2009289243A (ja) 位置検出装置、位置検出システム、映像表示装置、及び映像表示システム
JPH10222285A (ja) 画像抽出装置
JP2010154088A (ja) 位置と画像とを対応付ける画像処理
JP2007281556A (ja) 撮像素子、撮像装置及び撮像システム
JP2013007836A (ja) 画像表示装置、画像表示方法及びプログラム
TWI502449B (zh) 具有檢測結果依路由傳送功能之成像技術
JP2007088835A (ja) 機器制御装置
TWI306572B (en) Light pointing device and light tracking receiver having function selection key and system using the same
JPWO2015004975A1 (ja) 撮像システム
TW545050B (en) Image reading device and method for the same
JP2009141523A (ja) 画像読み取り装置及び画像読み取り方法
JP6196105B2 (ja) 撮像装置および電子内視鏡装置
JP2001165873A (ja) X線検査装置
JP6141129B2 (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
KR101195018B1 (ko) 영상 획득 전자펜 및 그의 영상 획득 방법
JP2008039514A (ja) 測定装置
JP2009014494A (ja) 計測装置
JPH09121344A (ja) 着順およびタイム判定装置
JP2008278430A (ja) 撮像装置、撮像方法、及びプログラム
JP2010152530A (ja) 位置検出部と撮像部との相対位置関係の特定

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140218