JP2012016060A - データ入出力方法 - Google Patents

データ入出力方法 Download PDF

Info

Publication number
JP2012016060A
JP2012016060A JP2011218281A JP2011218281A JP2012016060A JP 2012016060 A JP2012016060 A JP 2012016060A JP 2011218281 A JP2011218281 A JP 2011218281A JP 2011218281 A JP2011218281 A JP 2011218281A JP 2012016060 A JP2012016060 A JP 2012016060A
Authority
JP
Japan
Prior art keywords
state
image
areas
indicator
state area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011218281A
Other languages
English (en)
Inventor
Yao-Hung Tsai
曜鴻 蔡
Li-Ching Chen
麗卿 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sonix Technology Co Ltd
Original Assignee
Sonix Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38618561&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2012016060(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sonix Technology Co Ltd filed Critical Sonix Technology Co Ltd
Publication of JP2012016060A publication Critical patent/JP2012016060A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/33Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being semiconductor devices, e.g. diodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F15/00Boards, hoardings, pillars, or like structures for notices, placards, posters, or the like
    • G09F15/0006Boards, hoardings, pillars, or like structures for notices, placards, posters, or the like planar structures comprising one or more panels
    • G09F15/0025Boards, hoardings, pillars, or like structures for notices, placards, posters, or the like planar structures comprising one or more panels display surface tensioning means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/08Arrangements within a display terminal for setting, manually or automatically, display parameters of the display terminal

Abstract

【課題】画像インジケーターの提供。
【解決手段】コンテンツデータ部(contentpart)及びインジケーター認識部(header part)を含む画像インジケーターである。コンテンツデータ部は、複数個の画像マイクロユニットを含み、且つコンテンツデータ部が占有するエリアは複数の状態エリアに区分される。その中の各状態エリアには全て画像マイクロユニットが設置され、また当該画像マイクロユニットは選択的に前記状態エリアを等分して形成する複数のサブエリア中の1つに位置する。インジケーター認識部は複数個の画像マイクロユニットを含み、且つ各画像マイクロユニットは予め定められた方式で排列され、画像インジケーターを識別するヘッダー情報を提供させる。
【選択図】図5

Description

本発明は画像識別(pattern/imagerecognition)を利用して読み取ることができる画像インジケーターに関するもので、当該画像インジケーターは物体表面上に形成され、且つインジケーターデータをマッピングする。
図1は物体表面100上に形成される画像インジケーター(graphical indicator) 102を表示するイメージ図である。図1に示すように、画像インジケーター102は多くの画像マイクロユニット(graphicalmicro−units)が組み合わされて成り、画像マイクロユニットは相当微小であるため、視覚上見過ごされやすい、或いは人の目に地色として解読される。画像インジケーター102とメイン情報(main information) 104 (例:図1の文字図案”APPLE”)は、例えば印刷等の方式を利用し、例えば紙等の物体表面100上に共同形成される。画像インジケーター102はインジケーターデータをマッピングし、且つ人の目のメイン情報104受信に影響しない。
図2は電子システム110を表示する図である。その電子システム110は光学デバイス112、プロセッサー114及び出力デバイス116を有し、画像識別ステップによりその画像インジケーター102を読み取る。光学デバイス112、プロセッサー114、及び出力デバイス116は互いに有線或いは無線方式で接続されている。光学デバイス112は物体表面を読み取り、拡大影像を取得し、続いてプロセッサー114が拡大影像中から画像インジケーター102を取り出し、さらにデジタルデータに転換すると同時にそのデジタルデータに対応する付加情報を取得する。最後に、出力デバイス116がこの付加情報を受け取ると同時に、予め定められた形式でこの付加情報を出力する。こうして、画像インジケーター102の設計により、例えばブックページ等のよく見かける物体の表面上に、より多くの付加情報をロードすることができる。
図3は、周知の多くの画像インジケーター102を含む図案設計を表示する図である。図3に示すように、1つの画像インジケーター102 (破線で囲んだエリア)は、1つのキーポイント202、複数のグリッド204、及び複数の情報ポイント206が予め定められた規則に従って排列して形成される。詳しく言うと、1つの画像インジケーター102はキーポイント202を中心とし、周囲に多くのグリッド204を配置する。その中で、4個のグリッド204毎に1つの角型ブロックを配置し、且つ4個のグリッド204毎に中心を1つのバーチャルポイントとする。角型ブロック内に位置する情報ポイント206は、選択的にそのバーチャルポイントの上、下、左、右方向へ一定距離偏移させることができ、それぞれ異なる数値で表し、さらに前記の電子システム110により読み出す。キーポイント202は1つの画像インジケーター102中心のグリッド204を予め定められた方向へ一定距離偏移させる方式で形成される。キーポイント202は画像インジケーター102の参考方向を提供することができ、光学デバイス112が物体表面を読み取り、拡大影像を取得する時の方向付けの参考とする。さらに、4個のグリッド204は1つの角型ブロック方式で配置され、画像インジケーター102を読み取り、印刷する時に変形が起こった場合、校正の参考とすることができる。
図1に示すように、画像インジケーター102は通常、物体表面100上のメイン情報104と共存する。そのため、画像マイクロユニットの密度が高くなるほど、視覚効果が悪くなり、且つ人の目で画像インジケーター102の存在を感知しやすくなり、しかも画像インジケーター102とメイン情報104が混乱する機会が増加する。もう一方では、画像インジケーター102が有限の物体表面エリアに形成される時、同じ情報量が提供されるという前提のもと、画像マイクロユニットの分布密度が高すぎると、2つの隣り合う画像マイクロユニット間の距離が小さくなりすぎる。そのため画像マイクロユニットが、例えば印刷方式で紙上に形成される時、比較的はっきりした視覚干渉を起こす。この視覚干渉を減らしたい時は、通常、画像マイクロユニットの寸法をさらに縮小する必要があり、このようにしてプリンター及び紙の解析度の要求を高める。且つ印刷時にも印刷漏れしやすく、相対的に印刷の困難さが増し、また光学デバイスの判読ミスが起りやすく、区別が難しくなる。図3に示す周知の画像インジケーター102の設計方式は、画像マイクロユニットの密度が高くなりすぎることが明らかで、上記の種々の問題が発生する。
このため、本発明の目的は比較的低い画像マイクロユニット密度を提供し、且つ少量の画像マイクロユニットで画像インジケーターを構成することで、上記周知の設計の種々問題を避けることができる、画像インジケーターの設計を提供することである。
本発明に基づく設計では、画像インジケーターが物体の表面上に形成され、且つインジケーターデータをマッピングする。またその画像インジケーターはコンテンツデータ部(contentpart)及びインジケーター認識部(header part)を含む。コンテンツデータ部は複数個の画像マイクロユニット(micro−units)を含み、且つコンテンツデータ部が占有するエリアは複数の状態エリアに区分される。その中で各状態エリアには全て画像マイクロユニットが設置され、且つ画像マイクロユニットは選択的に前記状態エリアを等分して形成する複数のサブエリア中の1つに位置する。インジケーター認識部は複数個の画像マイクロユニットを含み、且つ画像マイクロユニットは予め定められた方式で排列され、その画像インジケーターを識別するヘッダー情報(headerinformation)を提供させる。インジケーター認識部はコンテンツデータ部のボーダー上に分布し、且つコンテンツデータ部の画像マイクロユニットの分布エリアを定めることができる。
さらに、コンテンツデータ部の設計が9個の画像マイクロユニットを有し、且つ9個の状態エリアに区分され、さらに各状態エリアが4個のサブエリアに等分される時、画像マイクロユニットは選択的にその第1、第2、第3、或いは第4サブエリアに設置され、そのコンテンツデータ部に262144種の状態組み合わせを持たせることができる。その262144種の状態組み合わせ中から65536種の状態組み合わせを取り出し、ユニコード(Unicode)のコード構造中の1プレーン(plane)に属する65536個のコード位置に対応させることができる。
本発明に基づく設計では、比較的少ないドット数(比較的低いドット密度)を用いて大量の情報量を提供することができ、こうすることで比較的良い視覚効果が提供できる。且つ人の目は比較的画像インジケーターの存在を感知しにくく、画像インジケーターと共存するメイン情報を混乱させない。
請求項1に記載の発明は、
コンテンツデータ部とインジケーター認識部とを含む画像インジケーターを形成するステップであって、前記コンテンツデータ部は、複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一つに配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットのそれぞれは、第2の状態エリアの中心位置に配置されるステップと、
前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記第二画像マイクロユニットにより提供される参考方向を特定するステップと
を含む物体上の画像インジケーターを使用するデータ入出力方法である。
請求項2に記載の発明は、前記第一画像マイクロユニットおよび前記第二画像マイクロユニットは、線状を呈することを特徴とする請求項1に記載のデータ入出力方法である。
請求項3に記載の発明は、前記第一画像マイクロユニットおよび前記第二画像マイクロユニットは、ドット状を呈することを特徴とする請求項1に記載のデータ入出力方法である。
請求項4に記載の発明は、それぞれの前記第1の状態エリアは、4個の仮想的サブエリアに等分され、前記それぞれの前記第一画像マイクロユニットは、前記4個の仮想的サブエリアのうち1個に選択的に配置されることを特徴とする請求項1に記載のデータ入出力方法である。
請求項5に記載の発明は、それぞれの前記第1の状態エリアは、8個の仮想的サブエリアに等分され、前記それぞれの前記第一画像マイクロユニットは、前記8個の仮想的サブエリアのうち1個に選択的に配置されることを特徴とする請求項1に記載のデータ入出力方法である。
請求項6に記載の発明は、前記第2の状態エリアと前記第1の状態エリアの一部は隣接し、前記第2の状態エリアは、前記第1の状態エリアと重ならないことを特徴とする請求項1に記載のデータ入出力方法である。
請求項7に記載の発明は、前記第1の状態エリアは、互いに重ならず、前記第2の状態エリアは、互いに重ならず、前記第1の状態エリアは、前記第2の状態エリアと重ならないことを特徴とする請求項1に記載のデータ入出力方法である。
請求項8に記載の発明は、
それぞれコンテンツデータ部とインジケーター認識部とを含む複数の画像インジケーターを形成するステップであって、それぞれの前記コンテンツデータ部は複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一つに配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、それぞれの前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットは、第2の状態エリアの中心位置に配置され、前記インジケーター認識部は少なくとも2つの前記第二画像マイクロユニットの分布を有し、前記インジケーター認識部の前記第二画像マイクロユニットの異なる分布は、それぞれ異なる参考方向を与えるステップと、
前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記インジケーター認識部の一つにより提供される前記参考方向を特定するステップと
を含む物体上の画像インジケーターを使用するデータ入出力方法である。
請求項9に記載の発明は、前記インジケーター認識部の一部は、前記第二画像マイクロユニットの第1の分布を有し、前記インジケーター認識部の他の部分は、第二画像マイクロユニットの第2の分布を有することを特徴とする請求項8に記載のデータ入出力方法である。
請求項10に記載の発明は、前記第1の分布を有する前記インジケーター認識部において、前記第2の状態エリアの一つの中心から偏位した前記第二画像マイクロユニットの数はN1であり、前記第2の分布を有する前記インジケーター認識部において、前記第2の状態エリアの一つの中心から偏位した前記第二画像マイクロユニットの数はN2であり、N1はN2と異なることを特徴とする請求項9に記載のデータ入出力方法である。
請求項11に記載の発明は、前記第1の分布を有する前記インジケーター認識部において、第二画像マイクロユニットの少なくとも1つは、第1の方向に沿って前記第2の状態エリアの一つの中心から偏位し、前記第2の分布を有する前記インジケーター認識部において、前記第二画像マイクロユニットの少なくとも1つは、第2の方向に沿って前記第2の状態エリアの一つの中心から偏位し、前記第1の方向は前記第2の方向と異なることを特徴とする請求項9に記載のデータ入出力方法である。
請求項12に記載の発明は、前記第1の分布を有する前記インジケーター認識部において、第2の状態エリアの前記中心に配置された前記他の前記第二画像マイクロユニットと前記第2の状態エリアの一つの中心から偏位した第二画像マイクロユニットの前記少なくとも一つとの第1の相対位置が与えられ、前記第2の分布を有する前記インジケーター認識部において、第2の状態エリアの前記中心に配置された前記他の前記第二画像マイクロユニットと前記第2の状態エリアの一つの中心から偏位した第二画像マイクロユニットの前記少なくとも一つとの第2の相対位置が与えられ、前記第1の相対位置は前記第2の相対位置と異なることを特徴とする請求項9に記載のデータ入出力方法である。
請求項13に記載の発明は、前記第一画像マイクロユニットと前記第二画像マイクロユニットとは、線状を呈することを特徴とする請求項8に記載のデータ入出力方法である。
請求項14に記載の発明は、前記第一画像マイクロユニットと前記第二画像マイクロユニットとは、ドット状を呈することを特徴とする請求項8に記載のデータ入出力方法である。
請求項15に記載の発明は、それぞれの前記第1の状態エリアは、4個の仮想的サブエリアに等分され、前記それぞれの前記第一画像マイクロユニットは、前記4個の仮想的サブエリアのうち1個に選択的に配置されることを特徴とする請求項8に記載のデータ入出力方法である。
請求項16に記載の発明は、それぞれの前記第1の状態エリアは、8個の仮想的サブエリアに等分され、前記それぞれの前記第一画像マイクロユニットは、前記8個の仮想的サブエリアのうち1個に選択的に配置されることを特徴とする請求項8に記載のデータ入出力方法である。
請求項17に記載の発明は、前記第2の状態エリアと前記第1の状態エリアの一部は隣接し、前記第2の状態エリアは、前記第1の状態エリアと重ならないことを特徴とする請求項8に記載のデータ入出力方法である。
請求項18に記載の発明は、
コンテンツデータ部とインジケーター認識部とを含む画像インジケーターを形成するステップであって、前記コンテンツデータ部は複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一つに配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットは、第2の状態エリアの中心に配置され、前記インジケーター認識部は、前記第二画像マイクロユニットの複数の候補分布から選択され、それぞれの前記第二画像マイクロユニットの前記候補分布は、それぞれ一つの参照方向を示すステップと、
前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記インジケーター認識部により提供される参考方向を特定するステップと
を含む物体上の画像インジケーターを使用するデータ入出力方法である。
請求項19に記載の発明は、
それぞれコンテンツデータ部とインジケーター認識部とを含む複数の画像インジケーターを形成するステップであって、それぞれの前記コンテンツデータ部は複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一つに配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、それぞれの前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットは、第2の状態エリアの中心位置に配置され、前記インジケーター認識部は少なくとも2つの前記第二画像マイクロユニットの分布を有し、前記インジケーター認識部の前記第二画像マイクロユニットの異なる分布は、それぞれ異なる参考方向を与え、前記インジケーター認識部は前記第二画像マイクロユニットの複数の候補分布の少なくとも2つから選択され、それぞれの前記第二画像マイクロユニットの前記候補分布は、それぞれ一つの参照方向を示すステップと、
前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記インジケーター認識部の一つにより提供される参考方向を特定するステップと
を含む物体上の画像インジケーターを使用するデータ入出力方法である。
請求項20に記載の発明は、
それぞれコンテンツデータ部とインジケーター認識部とを含む物体の矩形領域に配列された複数の画像インジケーターを形成するステップであって、それぞれの前記コンテンツデータ部は複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一に配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、それぞれの前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットは、第2の状態エリアの中心位置に配置され、前記矩形領域は前記第1の状態エリアおよび前記第2の状態エリアにより構成され、該矩形領域は互いに連結された2つの第1のエッジおよび互いに連結された2つの第2のエッジを有し、前記第1の状態エリアの一部は前記第1のエッジに沿って連続的に配置される一方、前記第1の状態エリアの一部と前記第2の状態エリアの一部とは前記第2のエッジに沿って交互に配置されるステップと、
前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記第二画像マイクロユニットにより提供される参考方向を特定するステップと
を含む物体上の画像インジケーターを使用するデータ入出力方法である。
請求項21に記載の発明は、前記第1の状態エリアは、互いに重ならず、前記第2の状態エリアは、互いに重ならず、前記第1の状態エリアは、前記第2の状態エリアと重ならないことを特徴とする請求項20に記載のデータ入出力方法である。
請求項22に記載の発明は、前記第2の状態エリアと前記第1の状態エリアの一部は隣接し、前記第2の状態エリアは、前記第1の状態エリアと重ならないことを特徴とする請求項20に記載のデータ入出力方法である。
本発明は比較的低い画像マイクロユニット密度を提供し、且つ少量の画像マイクロユニットで画像インジケーターを構成することで、上記の周知の設計の種々の問題を避けることができる、画像インジケーターの設計を提供することである。
物体の表面上に形成される画像インジケーターを表示する図である。 画像インジケーターを読み取る電子システムを表示する図である。 周知の多くの画像インジケーターを含む図案設計を表示する図である。 本発明に基づく実施例で設計した、多くの画像インジケーターが排列し形成する図案を表示である。 図4中の画像インジケーターの拡大図である。 画像マイクロユニットの状態エリア中の設置方式を表示する図である。 図5の画像インジケーターに対応するビット配列図である。 同じ画像インジケーターにそれぞれ対応する、同じインジケーター認識部の設計を表示する図である。 2つの隣り合い異なる画像インジケーターにそれぞれ対応する、相異なるインジケーター認識部の設計を表示する図である。 2つの隣り合い異なる画像インジケーターにそれぞれ対応する、相異なるインジケーター認識部の設計を表示する図である。 本発明と周知の設計を比較する概略図である。 本発明と周知の設計を比較する概略図である。 本発明と周知の設計を比較するもう1つの概略図である。 本発明と周知の設計を比較するもう1つの概略図である。 本発明の画像インジケーターのもう1つの実施例を表す図である。 本発明の画像インジケーターのもう1つの実施例を表す図である。 本発明の画像インジケーターのもう1つの実施例を表す図である。 本発明の画像インジケーターのもう1つの実施例を表す図である。
図4は本発明に基づく実施例で設計された、多くの画像インジケーター10が排列し形成する図案を表示し、図5はその中の画像インジケーター10の拡大図で、はっきりと本発明の設計を説明するものである。図5に示すように、画像インジケーター10はコンテンツデータ部(content part) 12及びインジケーター認識部(header part) 14を含む。本実施例によると、コンテンツデータ部12は9個のドット16で構成される9個の画像マイクロユニットを含み、且つそのコンテンツデータ部12の占有エリアは9個の状態エリア18に区分され、3*3の平面2次元配列の状態エリアを構成する。各状態エリア18は全て1つのドット16を含む。本実施例に基づく設計では、1つのドット16が状態エリア18中の異なる配列位置に置かれると、マッピングしたインジケーターデータ中の個別の数値で表すことを利用することができる。詳しく言うと、図6に示すように、1つの状態エリア18は4個のサブエリアに等分することができ、ドット16は選択的に右下方、左下方、左上方或いは右上方のサブエリアに設置でき、それぞれ4個の異なるビット値00、01、10或いは11で表すことができる。こうして、図5のコンテンツデータ部12が示すドット16の配置関係は、図7に示すビット配列に対応させることができる。コンテンツデータ部12が9個のドット16を有し、且つそれぞれ9個の状態エリア中に置く時、各状態エリア18が4個のサブエリアに等分されているため、各ドット16を選択的に4個のサブエリア中の1つに設置する場合、そのコンテンツデータ部12に49 (=262144)種の状態の組み合わせを持たせることができる。そこで、図5に示す画像インジケーター10の設計を利用すると、マッピングするインジケーターデータ中の262144個の異なる数値を表示することができる。そのため、本実施例によるコンテンツデータ部12の設計は、その262144種の状態組み合わせ中から、65536種の状態組み合わせを取り出し、ユニコード(Unicode)のコード構造中の1つのプレーン(plane)に属する65536個のコード位置に対応させ、その残りの状態組み合わせは、その他の用途のために保留することができる。例をあげると、チェックサムコード(checksum code)に対応させるコード位置として状態組み合わせを提供することができる。
もう一方では、画像インジケーター10が1グループの画像マイクロユニットから構成されているため、インジケーター認識部14を設置して2つの隣り合う画像インジケーター10を区分する必要がある。図8に示すように、4個の画像インジケーター10は全て同じコンテンツデータ部12を持ち、また同じインジケーターデータ内容を有する。そのため、4個の画像インジケーター10には全て同じ特定のインジケーター認識部14を設置し、こうすることで、その特定のインジケーター認識部14を探し出すだけで、同じ画像インジケーター10が探し出せ、近隣の他の画像インジケーター10における干渉を受けない。インジケーター認識部14は同様に例えばドット16から構成される多くの画像マイクロユニットを含み、且つそのインジケーター認識部14の占有エリアが多くの状態エリア18に区分されている。さらに図5を参照する。本実施例に基づく設計では、インジケーター認識部14の各状態エリア18は全て状態エリア18の中心位置に設置される1つのドットを含み、そのためインジケーター認識部14は7個のドットを持つ。且つ2つの隣り合うボーダー上を9個のドットを有するコンテンツデータ部12で囲み、インジケーター認識部14をL型分布に形成させ、且つ画像インジケーター10全体を16個のドットで構成される4*4マトリックス排列とする。図5に示すように、インジケーター認識部14のドットの配列位置は全て状態エリアの中心位置に予設され、画像インジケーターがインジケーター認識部14を識別する過程をさらに速くさせることができる。但し、インジケーター認識部14中の1つのドット16'の位置は特定方向に偏移させ、その他のドット16の位置と変える必要がある。そのため画像識別(pattern/image recognition)を行い、その画像インジケーター10を読み取る時、光学デバイス(図の表示なし)が物体表面を読み取り拡大影像を取得した後、まず画像インジケーター10のインジケーター認識部14を識別するだけで、その画像インジケーター10に対する方向付けができ、コンテンツデータ部12の状態組み合わせを正確にキャプチャーすることができる。
さらに、インジケーター認識部14中のドット16の配置位置を変更することで、互いに異なるインジケーター認識部14を発生させることができる。このため、各画像インジケーター10がコンテンツデータ部12の状態組み合わせを調整し、異なる数値をマッピングすると、2つの異なる数値の画像インジケーター10をそれぞれマッピングして、相異なるインジケーター認識部14によって両者を区別することができる。図9に示すように、2つのドット16の配置位置が異なる相異なるインジケーター認識部14a及び14bを、上下に隣り合い異なるコンテンツを持つデータ部12a及び12bの区別に用いることができる。或いは、図10に示すように、2つのドット16の配置位置が異なるインジケーター認識部14c及び14dを、左右に隣り合い異なるコンテンツを持つデータ部12c及び12dの区別に用いることができる。
このほか、本実施例に基づく設計では、インジケーター認識部14はコンテンツデータ部12の2つの隣り合うボーダー上に形成され、且つそのコンテンツデータ部12のドット16の分布範囲を定める。そのため光学デバイスを利用して影像を読み取った後、画像インジケーター10が変形等を起し実物と異なった時は、インジケーター認識部14を利用して校正を行い、コンテンツデータ部12中のドット排列を正確にキャプチャーする。
下記の比較図で、本発明と周知の設計の長所を比較し説明する。
図11は周知の設計の概略図を表示する。図12は本発明の設計の概略図を表示する。本発明の長所を説明する前にまず、有効情報の比率値を定義する:
E=(画像インジケーターのコンテンツ情報を表すドット数)/(全ドット数)。
図11に示すように、周知の設計の5*5ドットマトリックス・ブロック中において、各情報ポイント206は全て4個のグリッド204で囲まれているため、画像インジケーターは破線で示す多くのグリッドペア22に分割することができる。各グリッドペア22は1つのグリッド204と1つの情報ポイント206を含み、そのため、周知の設計の有効情報比率値は50%となる。且つその値はドットマトリックス・ブロックの大きさの変化に左右されず固定常数である。もう一方、図12に示す同じ5*5のドットマトリックス・ブロックの本発明における設計の場合、2つのボーダーを占拠するインジケーター認識部のドットを控除すると、その有効情報比率値は(4*4)/(5*5)=64%となる。且つ本発明に基づく設計では、画像インジケーター10が大きくなるほど有効情報比率値がさらに高くなる。例をあげると、10*10のドットマトリックス・ブロックの場合、その有効情報比率値は(9*9)/(10*10)=81%となる。このことから、本発明の有効情報比率値は周知の設計より明らかに高く、且つ画像インジケーターが増大するにつれさらに高まることがわかる。言い換えると、本発明は比較的少ないドット数(比較的低いドット密度)を用いて同じ情報量を表示することができる。
つまり画像インジケーターの設計で言うなら、画像マイクロユニットの寸法及び互いの間隔に基づき、画像マイクロユニットの数をできるだけ減らして、画像インジケーターの物体表面に対する全体の輝度の影響を減少させるべきである。前記したように、画像インジケーターは通常、物体表面のメイン情報と共存するため、ドットの密度が高くなるほど、視覚効果が悪くなるだけでなく、このように人の目は画像インジケーターの存在をより感知しやすくなり、画像インジケーターとメイン情報が混乱する機会が増す。そこで、本発明の有効情報比率値は周知の設計より明らかに高いため、比較的少ないドット数(比較的低いドット密度)を利用して同じ情報量を表示することができる。このようにして比較的よい視覚効果を提供し、且つ人の目が画像インジケーターの存在を比較的感知しにくいため、画像インジケーターとメイン情報が混乱しない。もう一方で、画像インジケーターが有限の物体表面エリアに形成される時、同じ情報量が提供されるという前提のもと、図11Aに示すようにドット分布密度が高すぎると、2つの隣り合うドット距離が小さくなりすぎ、明らかな視覚干渉をもたらしたり、印刷の困難度が容易に増加し、且つ光学デバイスの判読ミスをもたらしたり、区別しにくくなる。しかし、本発明の比較的低密度の設計はこの問題を引き起こさない。
図13及び図14は本発明と周知の設計を比較した、もう1つの図である。図13に示すように、周知の設計は画像インジケーター中に少なくとも1つのキーポイント202を形成する必要があり、そのため、その周囲の4個のグリッド204で構成される4個の角型ブロック及び情報ポイント206を連同させ、少なくとも13個のドットで1つの画像インジケーターを構成しなければならない。しかし、図14に示すように、本発明に基づく設計では、わずか4個のドット16だけで1つの画像インジケーターを形成することができる。このため、本発明は比較的少ないドット数を用いて、1つの画像インジケーターを構成することができ、このように異なる物体の表面上への設置方式において、将来比較的弾性があり、且つ高すぎるドット分布密度が起こりにくい。
図15は本発明の画像インジケーター10の別設計例を表示する。コンテンツデータ部12の状態エリア18上のドット16における分布方式もまた限定されない。図15に示すように、状態エリア18を4個のサブエリアに分ける時、状態エリアの中心ポイントPからの距離の遠近に基づき、2組のドット分布方式に区分される。中心ポイントPからの距離が比較的近いドット16aが右下方、左下方、左上方或いは右上方のサブエリアに設置されると、それぞれ4個の異なるビット値000、001、010或いは011で表すことができる。中心ポイントPからの距離が比較的遠いドット16bが右下方、左下方、左上方或いは右上方のサブエリアに設置されると、それぞれ別の4個の異なるビット値100、101、110或いは111で表す。この設計により、ドット16の状態エリア18上の分布は8種の可能な状態組み合わせを発生させることができる。
当然、本発明に基づく設計では、ドット16を複数個のサブエリア中の1つに置くだけで、異なるビット値で表示され、各状態エリア18が等分されたサブエリアの数量も限定されない。また図16に示すように、状態エリア18を八個のサブエリアに区分でき、それぞれのドット16を選択的にその中の1つのサブエリアに置くと、8種の可能な状態組み合わせが発生する。言い換えると、本発明ではそれぞれのドット16を置く状態エリアの位置は限定されず、状態エリア18が、幾つのサブエリアに区分されているかだけを見ればよい。
さらに、画像インジケーター10の画像マイクロユニットもまた、前記の各実施例で示したドット16に限定せず、例えばその他の外形のポイントでもよい。当然、異なる状態を識別するという目的が達成されるだけでよく、画像マイクロユニットはまた、ある特定の表示方式の使用に限定されない。例をあげると、図15に示すように、ショートライン・セグメント24を利用して表示することもできる。このほか、画像インジケーター10の画像マイクロユニット総数と排列もまた限定されず、且つ画像インジケーター10の状態エリアのマトリックスもまた縦横が等しいマトリックス排列の採用だけに限定しない。例えば図17に示すような縦横が違う角型マトリックスでもよい。
図18は、画像インジケーター10中のインジケーター認識部14を表示するもう1つの設計図である。インジケーター認識部14は画像インジケーター10のボーダー上への分布に限定されない。例えば、図17に示すように画像インジケーター10の中央部分に設置してもよく、画像インジケーター10の識別と位置決め効果さえ達成できればよい。
10 画像インジケーター
12、12a、12b、12c、12d コンテンツデータ部
14、14a、14b、14c、14d インジケーター認識部
16、16'、16a、16b ドット
18 状態エリア
22 グリッドペア
24 ショートライン・セグメント
100 物体表面
102 画像インジケーター
104 メイン情報
110 電子システム
112 光学デバイス
114 プロセッサー
116 出力デバイス
202 キーポイント
204 グリッド
206 情報ポイント

Claims (22)

  1. コンテンツデータ部とインジケーター認識部とを含む画像インジケーターを形成するステップであって、前記コンテンツデータ部は、複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一つに配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットのそれぞれは、第2の状態エリアの中心位置に配置されるステップと、
    前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記第二画像マイクロユニットにより提供される参考方向を特定するステップと
    を含む物体上の画像インジケーターを使用するデータ入出力方法。
  2. 前記第一画像マイクロユニットおよび前記第二画像マイクロユニットは、線状を呈することを特徴とする請求項1に記載のデータ入出力方法。
  3. 前記第一画像マイクロユニットおよび前記第二画像マイクロユニットは、ドット状を呈することを特徴とする請求項1に記載のデータ入出力方法。
  4. それぞれの前記第1の状態エリアは、4個の仮想的サブエリアに等分され、前記それぞれの前記第一画像マイクロユニットは、前記4個の仮想的サブエリアのうち1個に選択的に配置されることを特徴とする請求項1に記載のデータ入出力方法。
  5. それぞれの前記第1の状態エリアは、8個の仮想的サブエリアに等分され、前記それぞれの前記第一画像マイクロユニットは、前記8個の仮想的サブエリアのうち1個に選択的に配置されることを特徴とする請求項1に記載のデータ入出力方法。
  6. 前記第2の状態エリアと前記第1の状態エリアの一部は隣接し、前記第2の状態エリアは、前記第1の状態エリアと重ならないことを特徴とする請求項1に記載のデータ入出力方法。
  7. 前記第1の状態エリアは、互いに重ならず、前記第2の状態エリアは、互いに重ならず、前記第1の状態エリアは、前記第2の状態エリアと重ならないことを特徴とする請求項1に記載のデータ入出力方法。
  8. それぞれコンテンツデータ部とインジケーター認識部とを含む複数の画像インジケーターを形成するステップであって、それぞれの前記コンテンツデータ部は複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一つに配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、それぞれの前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットは、第2の状態エリアの中心位置に配置され、前記インジケーター認識部は少なくとも2つの前記第二画像マイクロユニットの分布を有し、前記インジケーター認識部の前記第二画像マイクロユニットの異なる分布は、それぞれ異なる参考方向を与えるステップと、
    前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記インジケーター認識部の一つにより提供される前記参考方向を特定するステップと
    を含む物体上の画像インジケーターを使用するデータ入出力方法。
  9. 前記インジケーター認識部の一部は、前記第二画像マイクロユニットの第1の分布を有し、前記インジケーター認識部の他の部分は、第二画像マイクロユニットの第2の分布を有することを特徴とする請求項8に記載のデータ入出力方法。
  10. 前記第1の分布を有する前記インジケーター認識部において、前記第2の状態エリアの一つの中心から偏位した前記第二画像マイクロユニットの数はN1であり、前記第2の分布を有する前記インジケーター認識部において、前記第2の状態エリアの一つの中心から偏位した前記第二画像マイクロユニットの数はN2であり、N1はN2と異なることを特徴とする請求項9に記載のデータ入出力方法。
  11. 前記第1の分布を有する前記インジケーター認識部において、第二画像マイクロユニットの少なくとも1つは、第1の方向に沿って前記第2の状態エリアの一つの中心から偏位し、前記第2の分布を有する前記インジケーター認識部において、前記第二画像マイクロユニットの少なくとも1つは、第2の方向に沿って前記第2の状態エリアの一つの中心から偏位し、前記第1の方向は前記第2の方向と異なることを特徴とする請求項9に記載のデータ入出力方法。
  12. 前記第1の分布を有する前記インジケーター認識部において、第2の状態エリアの前記中心に配置された前記他の前記第二画像マイクロユニットと前記第2の状態エリアの一つの中心から偏位した第二画像マイクロユニットの前記少なくとも一つとの第1の相対位置が与えられ、前記第2の分布を有する前記インジケーター認識部において、第2の状態エリアの前記中心に配置された前記他の前記第二画像マイクロユニットと前記第2の状態エリアの一つの中心から偏位した第二画像マイクロユニットの前記少なくとも一つとの第2の相対位置が与えられ、前記第1の相対位置は前記第2の相対位置と異なることを特徴とする請求項9に記載のデータ入出力方法。
  13. 前記第一画像マイクロユニットと前記第二画像マイクロユニットとは、線状を呈することを特徴とする請求項8に記載のデータ入出力方法。
  14. 前記第一画像マイクロユニットと前記第二画像マイクロユニットとは、ドット状を呈することを特徴とする請求項8に記載のデータ入出力方法。
  15. それぞれの前記第1の状態エリアは、4個の仮想的サブエリアに等分され、前記それぞれの前記第一画像マイクロユニットは、前記4個の仮想的サブエリアのうち1個に選択的に配置されることを特徴とする請求項8に記載のデータ入出力方法。
  16. それぞれの前記第1の状態エリアは、8個の仮想的サブエリアに等分され、前記それぞれの前記第一画像マイクロユニットは、前記8個の仮想的サブエリアのうち1個に選択的に配置されることを特徴とする請求項8に記載のデータ入出力方法。
  17. 前記第2の状態エリアと前記第1の状態エリアの一部は隣接し、前記第2の状態エリアは、前記第1の状態エリアと重ならないことを特徴とする請求項8に記載のデータ入出力方法。
  18. コンテンツデータ部とインジケーター認識部とを含む画像インジケーターを形成するステップであって、前記コンテンツデータ部は複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一つに配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットは、第2の状態エリアの中心に配置され、前記インジケーター認識部は、前記第二画像マイクロユニットの複数の候補分布から選択され、それぞれの前記第二画像マイクロユニットの前記候補分布は、それぞれ一つの参照方向を示すステップと、
    前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記インジケーター認識部により提供される参考方向を特定するステップと
    を含む物体上の画像インジケーターを使用するデータ入出力方法。
  19. それぞれコンテンツデータ部とインジケーター認識部とを含む複数の画像インジケーターを形成するステップであって、それぞれの前記コンテンツデータ部は複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一つに配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、それぞれの前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットは、第2の状態エリアの中心位置に配置され、前記インジケーター認識部は少なくとも2つの前記第二画像マイクロユニットの分布を有し、前記インジケーター認識部の前記第二画像マイクロユニットの異なる分布は、それぞれ異なる参考方向を与え、前記インジケーター認識部は前記第二画像マイクロユニットの複数の候補分布の少なくとも2つから選択され、それぞれの前記第二画像マイクロユニットの前記候補分布は、それぞれ一つの参照方向を示すステップと、
    前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記インジケーター認識部の一つにより提供される参考方向を特定するステップと
    を含む物体上の画像インジケーターを使用するデータ入出力方法。
  20. それぞれコンテンツデータ部とインジケーター認識部とを含む物体の矩形領域に配列された複数の画像インジケーターを形成するステップであって、それぞれの前記コンテンツデータ部は複数の第1の状態エリアに等分され、複数の第一画像マイクロユニットを含み、それぞれの前記第1の状態エリアは、複数の仮想的サブエリアに等分され、それぞれの前記第一画像マイクロユニットは、前記仮想的サブエリアのうち一つに配置され、前記第一画像マイクロユニットが異なる仮想的サブエリアに配置されたとき複数の異なる候補状態が提供され、それぞれの前記第1の状態エリアは、他の第1の状態エリアの少なくとも1つに隣接し、それぞれの前記インジケーター認識部は、複数の第2の状態エリアに等分され、複数の第二画像マイクロユニットを含み、それぞれの前記第2の状態エリアは、他の前記第2の状態エリアの少なくとも2つに隣接し、前記第1の状態エリアと前記第2の状態エリアとは、状態エリアの配列を構成し、少なくとも第二画像マイクロユニットの一つは、前記第2の状態エリアの一つの中心から偏位し、その他の前記第二画像マイクロユニットは、第2の状態エリアの中心位置に配置され、前記矩形領域は前記第1の状態エリアおよび前記第2の状態エリアにより構成され、該矩形領域は互いに連結された2つの第1のエッジおよび互いに連結された2つの第2のエッジを有し、前記第1の状態エリアの一部は前記第1のエッジに沿って連続的に配置される一方、前記第1の状態エリアの一部と前記第2の状態エリアの一部とは前記第2のエッジに沿って交互に配置されるステップと、
    前記画像インジケーターを光学デバイスにより読み取り、前記第一画像マイクロユニットにより提供される前記候補状態を識別し、前記インジケーター認識部の一つにより提供される参考方向を特定するステップと
    を含む物体上の画像インジケーターを使用するデータ入出力方法。
  21. 前記第1の状態エリアは、互いに重ならず、前記第2の状態エリアは、互いに重ならず、前記第1の状態エリアは、前記第2の状態エリアと重ならないことを特徴とする請求項20に記載のデータ入出力方法。
  22. 前記第2の状態エリアと前記第1の状態エリアの一部は隣接し、前記第2の状態エリアは、前記第1の状態エリアと重ならないことを特徴とする請求項20に記載のデータ入出力方法。
JP2011218281A 2006-04-14 2011-09-30 データ入出力方法 Pending JP2012016060A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW095113473A TWI370413B (en) 2006-04-14 2006-04-14 Graphical indicator
TW095113473 2006-04-14

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009106931A Division JP2009165197A (ja) 2006-04-14 2009-04-24 画像インジケーター

Publications (1)

Publication Number Publication Date
JP2012016060A true JP2012016060A (ja) 2012-01-19

Family

ID=38618561

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2006204347A Pending JP2007288756A (ja) 2006-04-14 2006-07-27 画像インジケーター
JP2009106931A Pending JP2009165197A (ja) 2006-04-14 2009-04-24 画像インジケーター
JP2011218281A Pending JP2012016060A (ja) 2006-04-14 2011-09-30 データ入出力方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2006204347A Pending JP2007288756A (ja) 2006-04-14 2006-07-27 画像インジケーター
JP2009106931A Pending JP2009165197A (ja) 2006-04-14 2009-04-24 画像インジケーター

Country Status (4)

Country Link
US (2) US7549597B2 (ja)
JP (3) JP2007288756A (ja)
KR (3) KR100964069B1 (ja)
TW (1) TWI370413B (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8070071B2 (en) * 2007-09-21 2011-12-06 Silverbrook Research Pty Ltd Method of imaging a coding pattern with data elements encoding by multi-pulse position modulation
TWI444906B (zh) * 2008-06-17 2014-07-11 Elan Microelectronics Corp Method of Decoding Two - dimensional
TWI336866B (en) * 2008-07-11 2011-02-01 Generalplus Technology Inc Method for coding two dimensional optical identification with the same gray level and printing product thereof
CN101615259B (zh) * 2008-08-01 2013-04-03 凌通科技股份有限公司 一种二维光学辨识码的识别系统
JP4291404B1 (ja) 2008-11-14 2009-07-08 健治 吉田 放送制御システム
US20110181916A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Method of encoding coding pattern to minimize clustering of macrodots
US20110180612A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Coding pattern comprising multi-ppm data symbols with minimal clustering of macrodots
US20110185252A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Coding pattern comprising multi-ppm data symbols with different layouts
US20110180611A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Coding pattern comprising multi-ppm data symbols in a format identified by registration symbols
US20110182514A1 (en) * 2010-01-27 2011-07-28 Silverbrook Research Pty Ltd Method of decoding coding pattern having self-encoded format
JP5560887B2 (ja) * 2010-05-10 2014-07-30 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US9159010B2 (en) 2010-06-11 2015-10-13 Rnib, Inc. Coded information systems
TWI492162B (zh) * 2011-05-25 2015-07-11 Generalplus Technology Inc 等灰度二維光學辨識碼裝置
TWI497420B (zh) * 2011-05-25 2015-08-21 Generalplus Technology Inc 可快速解碼之等灰度二維光學辨識碼裝置及解碼方法
TW201314630A (zh) * 2011-09-19 2013-04-01 Tritan Technology Inc 一種可動態決定像素量化臨界值的影像均化編碼與解碼方法
CN103024371B (zh) * 2011-09-27 2015-09-02 硕呈科技股份有限公司 可动态决定像素量化临界值的影像均化编码与解码方法
CN102567763B (zh) * 2011-12-27 2014-11-05 方正国际软件有限公司 一种数据存储和读取方法及系统
JP5688516B2 (ja) * 2012-01-21 2015-03-25 松翰科技股▲ふん▼有限公司 ドットコードを用いたデータ入力/出力方法
CN102609748B (zh) * 2012-01-21 2014-12-10 松翰科技股份有限公司 芯片的解码方法
CN105069388B (zh) * 2012-01-21 2018-09-28 松翰科技股份有限公司 使用点编码的数据输出输入方法
CN103425240A (zh) * 2012-05-18 2013-12-04 上海点码数码科技有限公司 数字点控系统
TWI492167B (zh) * 2014-06-05 2015-07-11 Sonix Technology Co Ltd 圖像指標
EP3076342A1 (de) 2015-04-01 2016-10-05 3S Simons Security Systems GmbH System umfassend wenigstens einen mikropartikel und wenigstens einen optischen code, verwendung eines derartigen systems sowie verfahren zur fälschungssicheren kennzeichnung eines objekts
TWI588753B (zh) * 2015-06-24 2017-06-21 松翰科技股份有限公司 載有點碼資訊配列的載體
EP3139132B1 (de) 2015-09-03 2020-02-19 Hexagon Technology Center GmbH Flächen-absolutcodierung
CN109359657B (zh) 2015-10-19 2022-11-25 松翰科技股份有限公司 指标结构
WO2018151367A1 (ko) * 2017-02-20 2018-08-23 상명대학교서울산학협력단 교육용 교재의 그래픽 표시방법
KR102131938B1 (ko) * 2018-07-05 2020-07-08 한국기계연구원 위조 방지 패턴, 위조 방지 패턴 생성 방법 및 장치
KR102104027B1 (ko) * 2018-08-30 2020-04-23 선문대학교 산학협력단 정보를 표시하는 메쉬 구조체 및 정보를 표시하는 메쉬 구조체로 감지 전극을 형성한 터치 장치
TWI718026B (zh) * 2020-03-13 2021-02-01 松翰科技股份有限公司 圖像指標
DE102021132112A1 (de) 2021-12-07 2023-06-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Planung einer Route
KR102476025B1 (ko) * 2022-10-13 2022-12-09 주식회사 보나 광학식 전자펜을 위한 그래픽 인디케이터 장치 및 그 이미지 처리 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4835544A (en) * 1986-10-16 1989-05-30 Laser Impressions (Stockport) Limited Printing and packaging system and identifying an item of printed matter
JPH09226228A (ja) * 1996-02-08 1997-09-02 Eastman Kodak Co コピー規制装置
JPH10257309A (ja) * 1997-03-06 1998-09-25 Toppan Printing Co Ltd Idカード作成方法及び作成装置
JPH10261058A (ja) * 1997-03-21 1998-09-29 Dainippon Printing Co Ltd 2次元データコード
JP2003511761A (ja) * 1999-10-01 2003-03-25 アノト・アクティエボラーク 光学読み取り用の符号化用紙
WO2004029871A1 (ja) * 2002-09-26 2004-04-08 Kenji Yoshida ドットパターンを用いた情報再生・入出力方法、情報再生装置、携帯情報入出力装置および電子玩具
JP2004166177A (ja) * 2002-01-11 2004-06-10 Sonix Technology Co Ltd 標識を生成するための方法及び該標識を利用する処理装置とシステム
WO2004084125A1 (ja) * 2003-03-17 2004-09-30 Kenji Yoshida ドットパターンを用いた情報入出力方法
WO2006070458A1 (ja) * 2004-12-28 2006-07-06 Kenji Yoshida ドットパターンを用いた情報入出力方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4924078A (en) 1987-11-25 1990-05-08 Sant Anselmo Carl Identification symbol, system and method
US6533182B1 (en) * 1999-09-21 2003-03-18 Omron Corporation Two-dimensional dot code and reader thereof
JP4763905B2 (ja) * 2001-03-06 2011-08-31 オリンパス株式会社 符号化画像読取装置
JP3766678B2 (ja) 2003-12-25 2006-04-12 健治 吉田 ドットパターンを用いた情報入出力方法
KR100591300B1 (ko) * 2005-01-18 2006-06-20 요시다 켄지 도트 패턴을 이용한 정보 입출력 방법
US8031375B2 (en) * 2005-04-28 2011-10-04 Kenji Yoshida Information input/output method using dot pattern
JP3771252B1 (ja) 2005-07-01 2006-04-26 健治 吉田 ドットパターン

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4835544A (en) * 1986-10-16 1989-05-30 Laser Impressions (Stockport) Limited Printing and packaging system and identifying an item of printed matter
JPH09226228A (ja) * 1996-02-08 1997-09-02 Eastman Kodak Co コピー規制装置
JPH10257309A (ja) * 1997-03-06 1998-09-25 Toppan Printing Co Ltd Idカード作成方法及び作成装置
JPH10261058A (ja) * 1997-03-21 1998-09-29 Dainippon Printing Co Ltd 2次元データコード
JP2003511761A (ja) * 1999-10-01 2003-03-25 アノト・アクティエボラーク 光学読み取り用の符号化用紙
JP2004166177A (ja) * 2002-01-11 2004-06-10 Sonix Technology Co Ltd 標識を生成するための方法及び該標識を利用する処理装置とシステム
WO2004029871A1 (ja) * 2002-09-26 2004-04-08 Kenji Yoshida ドットパターンを用いた情報再生・入出力方法、情報再生装置、携帯情報入出力装置および電子玩具
WO2004084125A1 (ja) * 2003-03-17 2004-09-30 Kenji Yoshida ドットパターンを用いた情報入出力方法
WO2006070458A1 (ja) * 2004-12-28 2006-07-06 Kenji Yoshida ドットパターンを用いた情報入出力方法

Also Published As

Publication number Publication date
US7819330B2 (en) 2010-10-26
KR100964069B1 (ko) 2010-06-16
TWI370413B (en) 2012-08-11
KR101007348B1 (ko) 2011-01-13
KR20070102390A (ko) 2007-10-18
KR100989319B1 (ko) 2010-10-25
US20090212119A1 (en) 2009-08-27
JP2009165197A (ja) 2009-07-23
KR20090029757A (ko) 2009-03-23
TW200739452A (en) 2007-10-16
JP2007288756A (ja) 2007-11-01
US20070246547A1 (en) 2007-10-25
KR20100040826A (ko) 2010-04-21
US7549597B2 (en) 2009-06-23

Similar Documents

Publication Publication Date Title
JP2012016060A (ja) データ入出力方法
JP6546317B2 (ja) ドットコードを用いたデータ入力/出力方法
CN102622599B (zh) 使用点编码的数据输出输入方法
EP0299383B1 (en) Method of reading identification code sheets
CN101064013B (zh) 使用图像指标结构的数据输出输入方法
JP6533895B2 (ja) ドットパターン、ドットパターン形成媒体、ドットパターンの画像データを生成するプログラム、ドットパターン形成装置、光学装置、光学読み取り装置、情報入出力装置、ドットパターン読み取り装置
JP6045752B2 (ja) 二次元コード、二次元コードの解析システム及び二次元コードの作成システム
US9613305B2 (en) Printed material on which two-dimensional code is displayed
TW201428635A (zh) 二維碼
EP2072096B1 (en) Card identification device, card identification method, program, and information recording medium
KR101780165B1 (ko) 그래픽 인디케이터
CN103714355A (zh) 图像处理设备及方法
CN101908156B (zh) 图像指标结构
CN102324039B (zh) 使用图像指标结构的数据输出输入方法
TWI588753B (zh) 載有點碼資訊配列的載體
CN102236811B (zh) 点图像编码结构、其译码方法与电子装置
CN108446709A (zh) 象形图识别装置、象形图识别系统和象形图识别方法
CN101751590A (zh) 可提供信息的点码图案及其译码方法与影像处理装置
US20090212120A1 (en) Graphical indicator
JPWO2006070458A1 (ja) ドットパターンを用いた情報入出力方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121010

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130627

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130702

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140603