JP3951492B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP3951492B2 JP3951492B2 JP5550799A JP5550799A JP3951492B2 JP 3951492 B2 JP3951492 B2 JP 3951492B2 JP 5550799 A JP5550799 A JP 5550799A JP 5550799 A JP5550799 A JP 5550799A JP 3951492 B2 JP3951492 B2 JP 3951492B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- identification code
- displayed
- cells
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、表示中の画像上の特定の点が指定された際に、指定された点の属性に応じた動作を行う画像処理装置に関する。
【0002】
【従来の技術】
従来、画像処理を行うコンピュータシステムにおいて、表示画面上に画像を表示するとともに、その画像に映った人物などのオブジェクトを判別するものがあった。さらに、画像中の各オブジェクトに対応づけて所定の動作を設定しておき、表示中の画像上の点がポインティングデバイスによって指定されると、指定された点に該当するオブジェクトを判別し、判別されたオブジェクトに対応する動作を行うものが知られていた。
【0003】
例えば、表示画面上に人物の写真が表示された状態で、マウス等によって人物の像の上の点を指定すると、指定された点が人物の像の上の点であることを判別して、その人物の名前やメッセージを表示する等の動作を行うことがあった。
【0004】
【発明が解決しようとする課題】
ところが、上記のような処理においては、ポインティングデバイスによって指定された点に該当するオブジェクトを判別する処理が複雑であり、効率的な処理が困難であるという問題があった。
【0005】
即ち、上記従来のコンピュータシステムでは、予め、画像中で各オブジェクトが占める領域を座標をもとに記憶しておき、この各オブジェクトが占める領域と、ポインティングデバイスによって指定された点の座標とをもとに演算処理を行っていた。このため、複数の画像について処理を行う場合には、各画像毎にオブジェクトが占める領域を座標をもとに記憶し、また、指定された点の座標に該当するオブジェクトを判別するための演算式を各画像毎に設定する必要があった。
さらに、上記のような設定が済んだ画像であっても、拡大、或いは縮小された場合には、再度、各オブジェクトの占める領域を判別するための演算式の設定等を行う必要があった。
【0006】
このため、コンピュータシステムで取り扱われるデータ量および演算処理量が多く、処理に時間がかかるという問題があった。この問題を回避するために、従来はコンピュータシステムのハードウェア能力を向上させる必要があり、コストの上昇を招いていた。
【0007】
この発明は、上記問題点を解決するため、複数のオブジェクトで構成される画像上の任意の点が指定された際に、指定された点に該当するオブジェクトを容易に、かつ、効率よく判別できる画像処理装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
請求項1記載の発明は、画像を記憶する画像記憶手段と、この画像記憶手段に記憶された画像を表示する表示手段と、この表示手段により表示された画像を格子状に分割して複数のセルを生成する画像分割手段と、前記画像分割手段により生成された複数のセルの数と前記画像及び複数のセルの座標と識別符号と複数の処理情報とが対応付けられるテーブルを記憶する記憶手段と、前記表示手段により表示された画像上の点を指定する指定手段と、前記テーブルを参照して前記複数のセルの数を取得し、前記指定手段により指定された点の前記画像上における座標と当該複数のセルの数とに基づいて前記指定された点を含むセルを判別する判別手段と、前記テーブルを参照し、前記判別手段により判別されたセルに対応する識別符号を出力する識別符号出力手段と、
前記テーブルを参照し、前記識別符号出力手段により出力された識別符号に対応する処理情報に基づいて処理を実行する処理手段と、を備えることを特徴としている。
【0011】
この請求項1記載の画像処理装置によれば、画像上の点が指定されると、指定された点を含む領域を判別し、この領域に対応する識別符号を出力する。このため、画像を構成する各オブジェクトのうちのどのオブジェクトに該当するかを示す識別符号を各領域に対応づけて記憶させておくことにより、指定された点に該当するオブジェクトを容易に検知することができる。また、異なる複数の画像を処理する場合であっても、各画像のオブジェクトが位置する座標の検出等の処理を行う必要がないので、効率化によってハードウェアの能力を極端に向上させることなく処理の高速化を実現し、コストの増大を抑制することができる。さらに、指定された点を含む領域の識別符号をもとに各種処理を行わせることも容易であり、画像上で指定された点の座標に応じて動作を行う各種装置を容易に実現することができる。
【0012】
【発明の実施の形態】
以下、この発明の実施の形態について、図1〜図16の図面を参照しながら説明する。
【0013】
なお、本発明の実施の形態において、CPU2は、画像・イベント情報登録処理(図6)のステップS12〜14を実行することで請求項記載の画像分割手段に対応し、同様に、マウス割り込み処理(図8)のステップS41〜45を実行することで判別手段および位置情報出力手段に対応し、ユーザ割り込み制御処理(図9)を実行することで処理手段に対応し、マウス割り込み処理(図8)のステップS46〜47を実行することで識別符号出力手段および制御手段に対応し、画像閲覧処理(図7)のステップS33〜36を実行することで表示制御手段に対応する。
【0014】
また、記憶装置7は、画像データベース(図示略)を格納することによって請求項記載の画像記憶手段に対応し、オブジェクト情報テーブルC(図4)を格納することによって処理記憶手段に対応し、セル情報テーブルA(図2)を格納することによって識別符号記憶手段に対応する。
【0015】
さらに、表示装置5は請求項記載の表示手段に対応し、入力装置3は請求項記載の指定手段に対応する。その他、後述するセルは請求項記載の領域に対応し、オブジェクトIDは請求項記載の識別符号に対応する。
【0016】
まず、構成を説明する。
【0017】
図1は、本発明を適用した実施の形態としてのコンピュータシステム1の概略構成を示すブロック図である。この図1に示すように、コンピュータシステム1は、CPU(Central Processing Unit )2、入力装置3、RAM(Random Access Memory)4、表示装置5、印刷装置6、記憶装置7および記憶装置7が備える記憶媒体8により構成され、記憶媒体8を除く各部はバス9によって接続されている。
【0018】
CPU2は、記憶装置7に格納される各種プログラムを読み込んでRAM4内に設けられたメモリエリアに展開し、コンピュータシステム1が有する各部の制御を実行する。すなわち、CPU2は、記憶装置7内に格納された基本制御プログラムを実行し、コンピュータシステム1の電源投入直後にコンピュータシステム1の各部を初期状態に移行させるための初期制御処理を実行するとともに、コンピュータシステム1により実行中の各種処理に係る画面を表示するための表示情報を生成して表示装置5に出力し、表示画面上に各種画像を表示させる。さらに、CPU2は、入力装置3からの指示入力により印刷実行が指示されると、当該指示により指定された文書あるいは画像等を印刷するための印刷情報を生成して印刷装置6に出力し、印刷を実行させる等、その他の各種制御処理を実行する。
【0019】
また、CPU2は、入力装置3からの指示入力に応じて記憶装置7内に格納された画像・イベント情報登録処理プログラムを読み込んで実行し、指定された画像データを読み込み、この画像データをもとに表示装置5の表示画面上に画像を表示させる。そして、表示中の画像を縦方向および横方向に所定の数に分割する罫線を当該画像に重ねて表示することで画像上に複数のセルを表示させる。また、表示中の画像の左上隅を原点として設定して、この原点をもとに水平方向にX軸を設定するとともに、垂直方向にY軸を設定する。
【0020】
続いてCPU2は、表示中の画像に係る画像データを記憶装置7内の画像データベース(図示略)に追加するとともに、当該画像上に表示される縦方向および横方向のセルの数を、記憶装置7に格納される画像情報テーブルB(図3)に設定する。さらに、表示中の画像上における各セルについて、対応するオブジェクトを示すオブジェクトIDが入力装置3からの指示入力によって指定されると、各セルに対応するオブジェクトIDを記憶装置7内に格納されるセル情報テーブルA(図2)に設定する。そして、CPU2は、各オブジェクトIDに対応して実行されるイベントの種類及びその内容を示すファイルを、記憶装置7内に格納されるオブジェクト情報テーブルC(図4)に設定する。
【0021】
また、CPU2は、記憶装置7内の画像データベース(図示略)に格納される画像のうちいずれかの画像が指定された場合には、画像閲覧処理プログラムを記憶装置7から読み込んで実行し、指定された画像を画像データベース(図示略)から読み出して表示画面上に表示させるとともに、表示時の拡大倍率が変更された場合には変更後の拡大率を画像情報テーブルB(図3)に設定する。そして、表示画面上に画像が表示された状態で入力装置3が備えるマウス3aが操作された場合には、マウス割り込み処理プログラムを実行して、マウス3aの操作によって指定された座標に基づいて画像情報テーブルBを参照することにより、指定された座標に該当する位置のセルを判別し、判別されたセルに設定されたオブジェクトIDを取得し、このオブジェクトIDを記憶装置7内の割り込み情報テーブルD(図4)に設定する。続いて、CPU2は、記憶装置7内に格納されたユーザ割り込みハンドラを読み込んで実行し、割り込み情報テーブルDから取得したオブジェクトIDに対応するイベントを、オブジェクト情報テーブルCを参照することによって実行する。
【0022】
なお、オブジェクトとは、例えば写真における各被写体、背景、イラスト中の建物や人、動物等、画像を構成する事物を指す。
【0023】
入力装置3は、数字キー、文字キー、および各種機能キーを備えたキーボードを備え、これら各キーの押下時に押下されたキーに対応する押下信号を生成してCPU2に出力する。また、入力装置3は、ポインティングデバイスとしてマウス3aを備えている。このマウス3aは、表示装置5の表示画面上に表示されたポインタ3bを表示画面上で移動させることにより、ポインタ3bが位置する座標を指定する。入力装置3は、クリック操作等のマウス3aの操作時に、表示画面上におけるポインタ3bの座標を示す座標データを操作信号とともにCPU2に出力する。
【0024】
RAM4は、CPU2により処理される各種プログラムや、その処理に係るデータを一時的に格納するメモリエリアを形成する。
【0025】
表示装置5は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成される表示画面を備え、この表示画面を、CPU2から入力される表示情報に基づいて駆動制御することによって画像等の各種の表示を実行する。
【0026】
印刷装置6は、レーザープリンタ、インクジェット式プリンタ、或いは、昇華型プリンタ等のプリンタを備え、CPU2から入力される印刷情報に基づいて前記プリンタを駆動制御することによって、コンピュータシステム1により処理される各種文書および画像を印刷出力する。
【0027】
記憶装置7は、プログラムやデータ等が記憶される記憶媒体8を有し、この記憶媒体8は磁気的、光学的記録媒体、若しくは半導体メモリで構成されている。この記憶媒体8は記憶装置7に固定的に設けたもの、若しくは着脱自在に装着するものである。この記憶装置7内には、CPU2によって実行される基本制御処理プログラム、画像・イベント情報登録処理プログラム、画像閲覧処理プログラム、マウス割り込み処理プログラム等の各種アプリケーションプログラムや、ユーザ割り込みハンドラ等のプログラムコードが格納される。また、記憶装置7において、上記の各種アプリケーションプログラムをCPU2によって実行する際に必要な各種データは、セル情報テーブルA、画像情報テーブルB、オブジェクト情報テーブルCおよび割り込み情報テーブルDの各テーブルに記憶される。さらに、記憶媒体8内には、複数の画像のデータが格納された画像データベース(図示略)が記憶されるとともに、この画像データベース(図示略)に登録されていない画像のデータ等を記憶する記憶領域を設けることも可能である。
【0028】
また、上記の記憶媒体8に記憶されるデータ等は、通信回線等を介して接続された他の機器から受信して記憶する構成にしてもよく、さらに、通信回線等を介して接続された他の機器側に上記記憶媒体8を備えた記憶装置を設け、この記憶媒体16に記憶されているプログラムやデータを通信回線を介して使用する構成としても良い。
【0029】
ここで、記憶装置7内に格納される各種のテーブルについて説明する。
【0030】
図2は、記憶装置7内に格納されるセル情報テーブルAの構成を示す図である。このセル情報テーブルAには、表示中の画像の左上隅を原点とした場合の各セルのX軸(横)方向およびY軸(縦)方向の位置と、後述する画像・イベント情報登録処理(図6)で指定されたオブジェクトIDとが対応づけて設定されている。
【0031】
例えば、「X位置」が「1」、「Y位置」が「4」のセルは、表示中の画像の左上隅からX軸方向に1番目の位置で、かつ、Y軸方向に4番目のセル座標に位置するセルである。そして、このセルに対応づけて設定されたオブジェクトIDが「1」であれば、このセルに該当する座標位置がマウス3aによって指定された際に、CPU2は、オブジェクトIDとして「1」を出力する。
【0032】
また、図3は、記憶装置7内に格納される画像情報テーブルBの構成を示す図である。この画像情報テーブルBには、画像データベース(図示略)に格納される各画像の画像No.(番号)に対応づけて、各画像を表示する際の拡大率が「表示拡大率(ZoomX,ZoomY)」として設定されている。このうち「ZoomX」はX軸方向の拡大率を示し、「ZoomY」はY軸方向の拡大率を示す。また、画像情報テーブルBには、各画像に係る画像データをそのまま表示した場合のサイズをドット単位で示した「オリジナルドットサイズ(ImageX,ImageY)」が設定される。「ImageX」はX軸方向のドット数を示し、「ImageY」はY軸方向のドット数を示す。さらに、画像情報テーブルBには、画像上に表示される罫線によって画像をセルに分割する際のセルの数を示す「セル分割数(DivX,DivY)」が設定されている。ここで「DivX」はX軸方向のセルの数を示し、「DivY」はY軸方向のセルの数を示す。
【0033】
例えば、図3中、「画像No.2」には、表示拡大率として「ZoomX」に「1」、「ZoomY」に「1」が設定されている。また、「オリジナルドットサイズ」としては「ImageX」に「300」が設定され、「ImageY」には「200」と設定されている。従って、「画像No.2」として画像データベース(図示略)に格納された画像データは、もとのサイズが「横300ドット×縦200ドット」の画像であり、表示装置5の表示画面上には縦横それぞれ「1倍」の倍率で表示される。また、セル分割数として「DivX」に「7」が設定され「DivY」に「7」が設定されているので、この「No.2」の画像が表示画面上に表示された際には、X軸方向に7個、Y軸方向に7個のセルが並ぶように罫線が表示される。なお、上記の「オリジナルドットサイズ」は、ピクセル(画素)数で表現されていても良い。
【0034】
図4は、記憶装置7内に格納されるオブジェクト情報テーブルCの構成を示す図である。オブジェクト情報テーブルCには、各オブジェクトIDに設定されたイベントの種類と、その内容を示すファイルが設定されている。具体的には、対応するイベントとしてテキスト(文字列)が表示されるオブジェクトIDには、「イベント種別」として「テキスト」が設定され、その内容を示す「イベントデータ」にはイベント実行時に表示される文字列が設定される。また、オブジェクトIDに対応するイベントとして音声が出力される場合には、「イベント種別」に「音声」が設定され、「イベントデータ」には音声データのファイル名が設定される。
【0035】
例えば、図4で「オブジェクトID」が「1」のオブジェクトに対応づけて設定されたイベントの「イベント種別」は「テキスト」であり、「イベントデータ」としては「高野です〜」と設定されている。つまり、「オブジェクトID」が「1」のオブジェクトに対応するイベントは、「高野です〜」という文字列の表示である。
同様に、図4で「オブジェクトID」が「2」のオブジェクトに対応する「イベント種別」は「音声」であり、「イベントデータ」として「“nakamura.wav”」が設定されている。従って、「オブジェクトID」が「2」のオブジェクトに対応するイベントの実行時には、「“nakamura.wav”」というデータファイルに記憶された音声データをもとにして音声が出力される。
なお、このデータファイル「“nakamura.wav”」は、PCM(Pulse Code Modulation )方式で音声データをデジタル化してWav形式で保存された音声データファイルであるが、本発明はこれに限定されるものではなく、例えば、MIDI(Musical Instruments Digital Interface )形式の音声データファイル等、他の形式の音声データファイルを利用しても良い。
【0036】
図5は、記憶装置7に格納される割り込み情報テーブルDの構成を示す図である。この割り込み情報テーブルDには、マウス3aが操作された際に、ポインタ3bの画像上における座標(DotX,DotY)と、この座標に該当するセルの位置(CellX,CellY)と、このセルに対応づけられたオブジェクトIDとが設定される。
ここで、「DotX」は表示中の画像上におけるX座標を示し、「DotY」は画像上におけるY座標を示す。また、「CellX」は、ポインタ3bの座標に該当するセルのX軸方向の位置を示し、「CellY」はY軸方向の位置を示す。
【0037】
図5に示す例では、「DotX」が「330」、「DotY」が「87」と設定されているので、表示中の画像の左上隅を原点として、マウス3a操作時のポインタ3bの座標位置は(330,87)である。また、「CellX」と「CellY」とがそれぞれ「5」と「3」とに設定されているので、(330,87)の座標位置には、X軸方向に5番目、Y軸方向に3番目のセルが位置することになる。
【0038】
続いて、上記のように構成されるコンピュータシステム1における動作について、図6から図16に従って説明する。
【0039】
図6は、CPU2により実行される画像・イベント情報登録処理を示すフローチャートである。この図6に示す画像・イベント情報登録処理は、記憶装置7内の画像データベース(図示略)に新しい画像を登録するとともに、この画像に対応づけて実行されるイベントについての設定を行う処理である。なお、この図6に示す画像・イベント情報登録処理は、既に画像データベース(図示略)に登録されている画像について、新たなイベント情報を設定したり、設定をやり直す等の目的で実行することも可能である。
【0040】
図6の画像・イベント情報登録処理において、CPU2は、処理対象として指定された画像の画像データがコンピュータシステム1の外部あるいは記憶装置7から読み込まれ、この画像データが示す本来のドット数であるオリジナルドットサイズで表示装置5の表示画面上に画像が表示される(ステップS11)。
【0041】
続いて、表示中の画像を所定の数のセルに分割するための罫線が、表示中の画像に重ねて表示される(ステップS12)。なお、ここで表示される罫線の数は、予め設定された規定値である。
そして、ステップS12で罫線が表示された後に、縦方向および横方向のセルの数を変更する指示が入力装置3から入力された場合には、入力された指示に応じて表示中の罫線の数を変更して再度罫線を表示させる(ステップS13)。
【0042】
次いで、表示中の画像におけるセルの数の調整が終了したか否かを判別し(ステップS14)、調整が終了していない場合にはステップS13に戻り、調整が終了した場合にはステップS15に移行する。
【0043】
ステップS15では、画像情報テーブルB(図3)に、表示中の画像の画像No.を新たに追加して設定し(ステップS15)、追加された画像No.に対応づけて、画像を分割するセルの数を「DivX」および「DivY」として設定する(ステップS16)。また、このステップS16では、追加された画像No.に対応づけて、この画像の画像データが示すオリジナルドットサイズが「ImageX」および「ImageY」として設定される。
【0044】
続いて、表示中の画像について、この画像に映っている各オブジェクトと、各セルとの対応付けが実行される。
即ち、表示中の写真画像に映っている人物等のオブジェクトのうち1個のオブジェクトと重なるセルが入力装置3からの指示入力によって範囲指定され(ステップS17)、指定されたセルに対応づけられたオブジェクトIDが入力される(ステップS18)。CPU2は、入力されたオブジェクトIDを、範囲選択されたセルに対応づけてセル情報テーブルA(図2)に設定し(ステップS19)、ステップS20に移行する。
【0045】
ここでCPU2は、ステップS19で設定されたオブジェクトIDが当該画像に対して初めて設定された新規オブジェクトIDであるか否かを判別し(ステップS20)、このオブジェクトIDが既に設定されたことがある場合には後述するステップS26に移行する。また、新規のオブジェクトIDであれば、オブジェクト情報テーブルC(図4)に、ステップS18で入力されたオブジェクトIDを設定する(ステップS21)。
【0046】
続いて、ステップS21で設定された新規のオブジェクトIDに対応するイベントが登録される。
まず、ステップS21で新規に設定されたオブジェクトIDに対応するイベントの種類が選択入力され(ステップS22)、「音声」の出力がイベントとして選択された場合には、ステップS23に移行する。ステップS23では、出力すべき音声のデータが記憶されたデータファイルのファイル名が入力され、続くステップS24で、新規のオブジェクトIDに対応づけてオブジェクト情報テーブルCの「イベント種別」が「音声」に設定される。また、ステップS23で入力されたデータファイル名は、オブジェクトIDに対応づけてオブジェクト情報テーブルCに設定される(ステップS25)。
【0047】
ステップS26では、表示中の画像において、続いて設定を行うべきオブジェクトがあるか否かを判別し、他のオブジェクトについての設定が行われる場合にはステップS17に戻り、オブジェクトについての設定が終了したと判別された場合には、そのまま処理を終了する。
【0048】
一方、ステップS22で、オブジェクトに対応するイベントとして「テキスト」の表示が選択指定された場合には、ステップS27に移行して、表示すべき文字列が入力装置3から入力される。
【0049】
続いて、オブジェクト情報テーブルCに、オブジェクトに対応する「イベント種別」として「テキスト」が設定され(ステップS28)、さらに、「イベントデータ」に、ステップS27で入力された文字列が設定されると(ステップS29)、ステップS26に移行する。そして、ステップS26でオブジェクトについての設定が終了した場合には、画像・イベント登録処理を終了する。
【0050】
図7は、本発明の実施の形態におけるコンピュータシステム1において、CPU2により実行される画像閲覧処理を示すフローチャートである。
この図7に示す画像閲覧処理は、記憶装置7内の画像データベース(図示略)に格納された画像の中から指定された画像を読み出して、画像情報テーブルB(図3)の設定内容に従って表示装置5に表示させる処理である。
【0051】
まず、入力装置3からの指示入力によって、記憶装置7内の画像データベース(図示略)に格納された画像の中から画像が選択指定されると(ステップS31)、CPU2は、選択指定された画像の画像データを読み込むとともに画像情報テーブルBを参照し、画像情報テーブルBに設定されたオリジナルドットサイズで選択指定された画像を表示画面上に表示させる(ステップS32)。
【0052】
続いて、CPU2は、表示中の画像の拡大率を変更する旨の指示入力の有無を判別し(ステップS33)、拡大率の変更が指示された場合にはステップS34に移行する。
【0053】
ステップS34では、入力装置3からの指示入力によって表示中の画像の表示拡大率が指定される。そして、CPU2は、ステップS34で指定された拡大率を画像情報テーブルBに「ZoomX」および「ZoomY」として設定し(ステップS35)、この新しい拡大率に従って、表示中の画像を再度表示装置5に表示させて(ステップS36)、ステップS33に戻る。ここで、再度、表示拡大率を変更する場合には、ステップS34〜ステップS36の処理を再度実行する。
【0054】
一方、ステップS33で、拡大率の変更の指示が入力されなかった場合には、ステップS37に移行して、次の画像を閲覧するか否かの指示入力を利用者に対して案内し、次の画像を見るとの指示が入力された場合には(ステップS37;Yes)、ステップS31に戻る。
また、次の画像を見る旨の入力が行われなかった場合には(ステップS33;No)、ステップS38に移行して、画像閲覧処理を終了するか否かの入力を案内し、終了しない旨の入力が行われた場合には、ステップS33に移行する。また、画像閲覧処理を終了する旨の入力に従って処理を終了する。
【0055】
図8は、入力装置3における利用者の操作に応じてCPU2によって実行されるマウス割り込み処理を示すフローチャートである。
この図8に示すマウス割り込み処理は、入力装置3が備えるマウス3aが操作された際に、操作時のポインタ3bの座標に重なるセルを特定し、このセルに対応づけて設定されたオブジェクトIDを取得する処理であり、マウス3aの操作時にポインタ3bの座標位置を示す座標データが入力装置3から入力されると、このマウス割り込み処理が開始される。
【0056】
図8のマウス割り込み処理においては、まず、入力装置3から入力された座標データにより表される物理座標を特定し、特定された座標を割り込み情報テーブルD(図4)に「DotX」および「DotY」として設定する(ステップS41)。
【0057】
つづいて、CPU2は、画像情報テーブルBに設定されたオリジナルドットサイズ「ImageX」、「ImageY」を取得するとともに(ステップS42)、ステップS43で画像情報テーブルBに設定された表示拡大率「ZoomX」、「ZoomY」を取得し、同様に、ステップS44でセル分割数「DivX」、「DivY」を取得する。
【0058】
そして、上記の「DotX」、「DotY」、「ImageX」、「ImageY」、「ZoomX」、「ZoomY」、「DivX」および「DivY」をもとに、ステップS41で特定した座標に対応するセル位置を算出する(ステップS45)。
つまり、CPU2は、ステップS45で式(1)および式(2)に示す演算を実行し、セルの位置を示す「CellX」および「CellY」を算出する。
【0059】
CellX = int(DotX*DivX/(ImageX*ZoomX))+1 (1)
CellY = int(DotY*DivY/(ImageY*ZoomY))+1 (2)
【0060】
そして、CPU2は、ステップS45で算出された「CellX」および「CellY」で示されるセルについて、セル情報テーブルA(図2)を参照し、このセルに対応するオブジェクトIDを取得する(ステップS46)。さらに、CPU2は、ステップS46で取得したオブジェクトIDを割り込み情報テーブルDに設定し(ステップS47)、このオブジェクトIDをもとにしてユーザ割り込みハンドラを呼び出して(ステップS48)、マウス割り込み処理を終了する。
【0061】
図9は、CPU2によって実行されるユーザ割り込み制御処理を示すフローチャートであり、図8に示すマウス割り込み処理で呼び出されるユーザ割り込みハンドラを実行することで行われる。
【0062】
なお、ユーザ割り込みハンドラとは、マウス3aにおけるユーザの操作をもとに実行されるプログラムコードであり、マウス3aの操作に基づいて実行される上記マウス割り込み処理(図8)が終了する際にCPU2に読み込まれ、RAM4内のワークエリアに展開されて実行される。
【0063】
まず、CPU2は、記憶装置7内の割り込み情報テーブルDから、図8のマウス割り込み処理で設定されたオブジェクトIDを取得する(ステップS51)。そして、取得したオブジェクトIDをもとにオブジェクト情報テーブルCを参照して、当該オブジェクトIDに対応するイベント種別を取得する(ステップS52)。
【0064】
ここで、CPU2は、ステップS52で取得したイベント種別を判別し(ステップS53)、イベント種別が「音声」である場合には、ステップS54に移行して、オブジェクト情報テーブルCに設定されたファイル名のデータファイルを読み込み、このデータファイルに基づいて、音声出力処理を実行する(ステップS55)。
【0065】
また、ステップS53で、ステップS52で取得したイベント種別が「テキスト」である場合には、ステップS56に移行して、オブジェクト情報テーブルCに設定されたテキストデータを読み込み、このテキストデータの文字列を表示画面上に表示するテキスト表示処理を実行する(ステップS57)。
【0066】
そして、上記の音声出力処理あるいはテキスト表示処理が終了した後、ユーザ割り込み制御処理が終了する。
【0067】
図10〜図16は、上記の各処理において表示装置5によって表示される画面の一例を示す図である。
図10は、記憶装置7内の画像データベース(図示略)に格納された画像が一覧表示された画像一覧表示画面51の一例を示す図である。この図10に示す画像一覧表示画面51には、画像データベース(図示略)に格納された全ての画像が、例えばサムネイル画像等の縮小された形式でプレビュー表示される。なお、この画像一覧表示画面51において各画像が表示される際の表示倍率は、画像データベース(図示略)内に格納された画像の数に応じて決定される構成としても良いし、或いは、所定の縮小率に応じて各画像のオリジナルドットサイズをもとに決定されても良い。
【0068】
図10に示す画像一覧表示画面51には、写真1〜写真12までの12枚の画像が表示されている。利用者は入力装置3が備えるマウス3aを操作して、これら12枚の画像の内の所望の画像上にポインタ3bを移動させ、マウス3aのクリック操作を行うことにより、図7に示す画像閲覧処理を実行させて、当該画像を閲覧することができる。
【0069】
図11は、指定画像表示画面52の一例を示す図である。この指定画像表示画面52は、画像閲覧処理(図7)のステップS31で画像一覧表示画面51(図10)からマウス3aの操作により指定された画像、或いは、上述の画像・イベント情報登録処理(図6)のステップS11で新たにコンピュータシステム1に読み込まれた画像が、表示装置5の表示画面上にオリジナルドットサイズで表示された画面である。
【0070】
図12は、セル表示画面53の一例を示す図である。このセル表示画面53は、画像・イベント情報登録処理(図6)のステップS12において、指定画像表示画面52(図11)で表示画面上にオリジナルドットサイズで表示された画像上に罫線が表示され、表示中の画像が複数のセルに分割された画面である。
図12に示す例においては、表示中の画像が縦7個、横7個のセルに分割されている。なお、セル表示画面53で画像上に表示される罫線の数は、上述の画像・イベント情報登録処理(図6)のステップS13で、入力装置3からの指示入力によって適宜変更可能である。
【0071】
図13は、セル選択画面54の一例を示す図である。なお、図13に示すセル選択画面54では、図12のセル表示画面53における罫線の数が変更され、縦、横それぞれ11個のセルが並ぶように罫線が表示されている。
このセル選択画面54は、画像・イベント情報登録処理(図6)のステップS17で、図12の指定画像表示画面52に表示されたセルの中から特定のオブジェクトに重なるセルが選択された画面であり、選択されたセルが強調表示されている。図13に示す画面で、オブジェクトIDとして例えば「3」が入力されると、記憶装置7内のセル情報テーブルA(図2)において、強調表示されたセルのセル座標に対応づけてオブジェクトID「3」が設定される。
【0072】
そして、図14は、オブジェクトID表示画面55の一例を示す図である。このオブジェクトID表示画面55は、図13に示すセル選択画面54で強調表示されたセルにオブジェクトIDが設定され、画像上の各セルに表示された画面である。この図14に示す例では、表示中の画像において、左端の人物に重なるセルにはオブジェクトID「1」が設定され、中央の人物に重なるセルにはオブジェクトID「2」が設定され、右端の人物に重なるセルにはオブジェクトID「3」が設定されている。
【0073】
ここで、図15に示すオブジェクトID表示画面55が縮小して表示された例を図15に示す。
図15は、拡大率変更画面56の一例を示す図である。この拡大率変更画面56は、画像閲覧処理(図7)のステップS33〜ステップS36で表示中の画像の表示倍率を変更することによって、表示される画像のサイズが縮小された画面である。
【0074】
図15に示す例では、図14のオブジェクトID表示画面55が縮小されて表示されている。つまり、図11に示す指定画像表示画面52で表示中の画像を縮小して表示させ、その後、表示中の画像上に罫線を表示させたり、オブジェクトIDを設定する等の処理を行うことができる。
さらに、オブジェクトID表示画面55のように画像が縮小された場合にも、罫線の数は変更されないため、画像上に表示されるセルの数はオリジナルドットサイズで表示された画面と同じ数である。従って、画像が拡大あるいは縮小された場合であってもセルの数が変化しないので、複雑な座標変換のための計算を行う必要がなく、上述のマウス割り込み処理(図8)およびユーザ割り込み制御処理(図9)を、オリジナルドットサイズの表示時と同様に行うことができる。
【0075】
なお、記憶装置7内の画像情報テーブルB(図3)に、表示拡大率「ZoomX」、「ZoomY」として、オリジナルドットサイズよりも小さく表示する倍率が設定された画像は、常に図15に示すように縮小されて表示される。
【0076】
そして、図16は、イベント実行画面57の一例を示す図である。このイベント実行画面57は、マウス3aの操作に応じてマウス割り込み処理(図8)が実行され、続いてユーザ割り込み制御処理(図9)が実行されることにより、ポインタ3bにより指定された座標に位置するセルに対応づけてオブジェクト情報テーブルC(図4)に設定されたイベントが実行された際の画面を示す。
図16に示す例では、ポインタ3bが画面右方の人物像の上に位置し、このポインタ3bの付近に文字列が表示されている。即ち、上記のマウス割り込み処理(図8)およびユーザ割り込み制御処理(図9)が実行されることで、ポインタ3bが位置する座標に重なるセルのセル座標が求められ、求められたセルに対応づけてセル情報テーブルA(図2)に設定されたオブジェクトID「3」が取得される。そして、このオブジェクトID「3」に対応づけてオブジェクト情報テーブルC(図4)に設定されたイベントとして「田中です〜」という文字列が、画面上に表示される。
【0077】
以上のように、本発明を適用した実施の形態としてのコンピュータシステム1によれば、記憶装置7内の画像データベース(図示略)に、複数のオブジェクトを含む画像を新たに登録する際に、画像・イベント情報登録処理を実行して、この画像を表示画面上に表示し、示中の画像上に罫線を重ねて表示させて当該画像を複数のセルに分割するとともに、この画像に画像No.を付し、画像No.に対応づけて表示拡大率と、オリジナルドットサイズと、セル分割数とを画像情報テーブルBに設定する。さらに、各オブジェクトに重なるセルが範囲選択されると、選択されたセルに対応づけて当該オブジェクトのオブジェクトIDをセル情報テーブルAに設定する。また、各オブジェクトIDに、対応するイベントの種別とイベントデータとをオブジェクト情報テーブルCに設定する。そして、入力装置3が備えるマウス3aによって表示中の画像上の点が指定されると、マウス割り込み処理を実行して、指定された点の画像上における座標をもとに、当該座標に該当するセルを判別し、判別されたセルに対応づけられたオブジェクトIDを取得する。そして、割り込みハンドラを呼び出して、取得したオブジェクトIDに対応づけてオブジェクト情報テーブルCに設定されたイベントを実行させる。
【0078】
従って、マウス3aによって画像上の点が指定された際には、この点に対応するオブジェクトを比較的単純な演算処理によって速やかに特定することができるので、画像に含まれる各オブジェクトに対応づけられた動作を速やかに実行させることができる。これにより、上記従来の技術に比較してハードウェアの能力を向上させることなく処理の高速化を図ることができ、コストの増大を押さえることができる。また、処理時間の短縮によって利便性を向上させることができる。
【0079】
さらに、上記実施の形態としてのコンピュータシステム1によれば、画像データベース(図示略)内の画像が指定された際に、画像閲覧処理を実行して、指定された画像を画像情報テーブルBに設定されたサイズで表示画面上に表示させて、表示倍率の変更を指示する指示入力があった場合には、この指示入力内容に従って画像情報テーブルBの表示拡大率を変更して再度画像を表示し、この画像上におけるセルの数は変更しない。従って、画像の表示サイズが変更されても、セルのサイズが画像と同様に変更され、セルの数が変化しないので、セル情報テーブルAや画像情報テーブルBの設定内容、および、セルを判別するための演算式を特に変更する必要が無い。このため、マウス3aによって画像上の点が指定された際には、画像の表示サイズが変更される前と同様の処理によって該当するセルを判別してオブジェクトIDを取得し、対応するイベントを実行させることができ、処理の複雑化や低速化、効率の悪化等の事態は発生しないので、より一層の利便性の向上を図ることができる。
【0080】
そして、上記実施の形態としてのコンピュータシステム1によれば、どのようなオブジェクトで構成されている画像に対しても、罫線を重ねて表示することによってセルに分割し、上記の画像・イベント情報登録処理、マウス割り込み処理およびユーザー割り込み制御処理を実行することができるので、様々な画像に汎用的に対応することが可能である。また、画像上に表示される罫線の数を変更してセルの数を変更することができる。これにより、画像データベース(図示略)における画像の追加、削除、更新等の各種操作に影響されないので、より一層の利便性の向上を図ることができる。
【0081】
さらに、上記のマウス割り込み処理を、コンピュータシステム1のOS(Operation System)等の基本制御プログラムの機能として備える構成とすれば、マウス3aの操作に応じてオブジェクトIDが出力される一連の処理はOSの動作として実行される。この場合、アプリケーションプログラム等の上位プログラム側では、OSから出力されるオブジェクトIDを引数として処理を行えば良く、アプリケーションプログラムの処理が簡略化されるので、コンピュータシステム1をプラットホームとする各種アプリケーションプログラムの開発の省力化が期待できる。
【0082】
なお、上記実施の形態としてのコンピュータシステム1においては、画像・イベント情報登録処理において、画像上に、画面の縦方向および横方向に伸びる罫線を表示する構成としたが、本発明はこれに限定されるものではなく、斜めの格子を形成するように罫線を表示しても良いし、或いは、極座標形式で画像を複数のセルに分割しても良く、画像上における座標からセル座標を求めることが可能であればよく、その他細部の構成についても、本発明の趣旨を損なうことのない範囲内で適宜変更可能である。
【0083】
また、上記実施の形態としてのコンピュータシステム1においては、マウス3aによりクリック操作などの操作が行われ、入力装置3から操作信号が出力された際に上述のマウス割り込み処理を実行する構成としたが、一定時間毎にマウス3aの動作とポインタ3bの位置との検知を行い、マウス3aが移動されたことを検知した際にポインタ3bの座標位置を取得して、上記マウス割り込み処理を実行する構成としても良い。この場合、利用者による処理を簡略化することで、より一層の利便性の向上を図ることができる。
【0086】
【発明の効果】
請求項1記載の発明の画像処理装置によれば、画像上の点が指定されると、指定された点を含む領域を判別し、この領域に対応する識別符号を出力する。このため、画像を構成する各オブジェクトのうちのどのオブジェクトに該当するかを示す識別符号を各領域に対応づけて記憶させておくことにより、指定された点に該当するオブジェクトを容易に検知することができる。また、異なる複数の画像を処理する場合であっても、各画像のオブジェクトが位置する座標の検出等の処理を行う必要がないので、効率化によってハードウェアの能力を極端に向上させることなく処理の高速化を実現し、コストの増大を抑制することができる。さらに、指定された点を含む領域の識別符号をもとに各種処理を行わせることも容易であり、画像上で指定された点の座標に応じて動作を行う各種装置を容易に実現することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態におけるコンピュータシステム1の内部構成を示すブロック図である。
【図2】図1に示す記憶装置7内に格納されるセル情報テーブルAの構成の一例を示す図である。
【図3】図1に示す記憶装置7内に格納される画像情報テーブルBの構成の一例を示す図である。
【図4】図1に示す記憶装置7内に格納されるオブジェクト情報テーブルCの構成の一例を示す図である。
【図5】図1に示す記憶装置7内に格納される割り込み情報テーブルDの構成の一例を示す図である。
【図6】図1に示すCPU2によって実行される画像・イベント情報登録処理を示すフローチャートである。
【図7】図1に示すCPU2によって実行される画像閲覧処理を示すフローチャートである。
【図8】図1に示すCPU2によって実行されるマウス割り込み処理を示すフローチャートである。
【図9】図1に示すCPU2によって実行されるユーザ割り込み制御処理を示すフローチャートである。
【図10】図1に示す表示装置5によって表示される画像一覧表示画面51の一例を示す図である。
【図11】図1に示す表示装置5によって表示される指定画像表示画面52の一例を示す図である。
【図12】図1に示す表示装置5によって表示されるセル表示画面53の一例を示す図である。
【図13】図1に示す表示装置5によって表示されるセル選択画面54の一例を示す図である。
【図14】図1に示す表示装置5によって表示されるオブジェクトID表示画面55の一例を示す図である。
【図15】図1に示す表示装置5によって表示される拡大率変更画面56の一例を示す図である。
【図16】図1に示す表示装置5によって表示されるイベント実行画面57の一例を示す図である。
【符号の説明】
1 コンピュータシステム
2 CPU(画像分割手段;判別手段;位置情報出力手段;処理手段;識別符号出力手段;制御手段;表示制御手段)
3 入力装置(指定手段)
3a マウス
3b ポインタ
4 RAM
5 表示装置(表示手段)
51 画像一覧表示画面
52 指定画像表示画面
53 セル表示画面
54 セル選択画面
55 オブジェクトID表示画面
56 拡大率変更画面
57 イベント実行画面
6 印刷装置
7 記憶装置(画像記憶手段;処理記憶手段;識別符号記憶手段)
8 記憶媒体
9 バス
A セル情報テーブル(識別符号記憶手段)
B 画像情報テーブル
C オブジェクト情報テーブル(処理記憶手段)
D 割り込み情報テーブル[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that performs an operation according to an attribute of a specified point when a specific point on the image being displayed is specified.
[0002]
[Prior art]
Conventionally, some computer systems that perform image processing display an image on a display screen and determine an object such as a person shown in the image. Further, a predetermined operation is set in association with each object in the image, and when a point on the displayed image is designated by the pointing device, the object corresponding to the designated point is discriminated and discriminated. It was known to perform actions corresponding to objects.
[0003]
For example, when a person's picture is displayed on the display screen and a point on the person's image is specified with a mouse or the like, it is determined that the specified point is a point on the person's image, There were cases where operations such as displaying the name and message of the person were performed.
[0004]
[Problems to be solved by the invention]
However, in the processing as described above, there is a problem that processing for determining an object corresponding to a point designated by the pointing device is complicated, and efficient processing is difficult.
[0005]
That is, in the above conventional computer system, the area occupied by each object in the image is stored in advance based on the coordinates, and the area occupied by each object and the coordinates of the point designated by the pointing device are stored. And was performing arithmetic processing. For this reason, when processing a plurality of images, the area occupied by the object for each image is stored based on the coordinates, and an arithmetic expression for determining the object corresponding to the coordinates of the designated point Must be set for each image.
Further, even if the image has been set as described above, it has been necessary to set an arithmetic expression for determining the area occupied by each object again when the image is enlarged or reduced.
[0006]
For this reason, there is a problem that the amount of data and the amount of calculation processing handled by the computer system are large, and the processing takes time. In order to avoid this problem, conventionally, it has been necessary to improve the hardware capability of the computer system, resulting in an increase in cost.
[0007]
In order to solve the above problems, the present invention can easily and efficiently determine an object corresponding to a designated point when an arbitrary point on an image composed of a plurality of objects is designated. An object is to provide an image processing apparatus.
[0010]
[Means for Solving the Problems]
Claim1In the described invention, an image storage unit that stores an image, a display unit that displays an image stored in the image storage unit, and an image displayed by the display unit is divided into a plurality of grids to form a plurality of images.cellImage dividing means for generating a plurality of images generated by the image dividing meansStorage means for storing a table in which the number of cells, the image, the coordinates of a plurality of cells, an identification code, and a plurality of pieces of processing information are associated;Designation means for designating a point on the image displayed by the display means;Obtaining the number of the plurality of cells with reference to the table;Coordinates on the image of the point specified by the specifying meansAnd the number of cellsContains the specified pointcellDiscriminating means for discriminating;Referring to the table,Discriminated by the discriminating meansCorresponds to a cellAn identification code output means for outputting an identification code;
Processing means for referring to the table and executing processing based on processing information corresponding to the identification code output by the identification code output means;It is characterized by having.
[0011]
This claim1According to the described image processing apparatus, when a point on the image is designated, an area including the designated point is determined, and an identification code corresponding to the area is output. For this reason, it is possible to easily detect an object corresponding to a specified point by storing an identification code indicating which of the objects constituting the image corresponds to each area. Can do. Also, even when processing multiple different images, there is no need to perform processing such as detection of the coordinates where the object of each image is located, so processing can be performed without significantly improving hardware capabilities through efficiency. The increase in cost can be realized and the increase in cost can be suppressed. Furthermore, various processes can be easily performed based on the identification code of the area including the designated point, and various devices that operate according to the coordinates of the designated point on the image can be easily realized. Can do.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
[0013]
In the embodiment of the present invention, the
[0014]
Further, the
[0015]
Further, the
[0016]
First, the configuration will be described.
[0017]
FIG. 1 is a block diagram showing a schematic configuration of a
[0018]
The
[0019]
Further, the
[0020]
Subsequently, the
[0021]
Further, when any one of images stored in an image database (not shown) in the
[0022]
Note that an object refers to an object constituting an image, such as each subject in a photograph, a background, a building, a person, or an animal in an illustration.
[0023]
The
[0024]
The
[0025]
The
[0026]
The printing apparatus 6 includes a printer such as a laser printer, an ink jet printer, or a sublimation printer. The printer 6 drives and controls the printer based on print information input from the
[0027]
The
[0028]
The data stored in the
[0029]
Here, various tables stored in the
[0030]
FIG. 2 is a diagram showing the configuration of the cell information table A stored in the
[0031]
For example, the cell whose “X position” is “1” and “Y position” is “4” is the first position in the X-axis direction from the upper left corner of the image being displayed and the fourth cell in the Y-axis direction. A cell located at cell coordinates. If the object ID set in association with this cell is “1”, the
[0032]
FIG. 3 is a diagram showing the configuration of the image information table B stored in the
[0033]
For example, in “Image No. 2” in FIG. 3, “1” is set for “ZoomX” and “1” is set for “ZoomY” as the display magnification ratio. As the “original dot size”, “300” is set in “ImageX”, and “200” is set in “ImageY”. Therefore, the image data stored in the image database (not shown) as “Image No. 2” is an image having the original size of “300 dots wide × 200 dots long” on the display screen of the
[0034]
FIG. 4 is a diagram showing the configuration of the object information table C stored in the
[0035]
For example, the “event type” of the event set in association with the object whose “object ID” is “1” in FIG. 4 is “text”, and “event data” is set to “is Takano ~”. Yes. In other words, the event corresponding to the object whose “object ID” is “1” is a display of a character string “I am Takano ~”.
Similarly, in FIG. 4, the “event type” corresponding to the object whose “object ID” is “2” is “voice”, and “nakamura.wav” is set as “event data”. Therefore, when an event corresponding to an object whose “object ID” is “2” is executed, a sound is output based on the sound data stored in the data file ““ nakamura.wav ””.
The data file “nakamura.wav” is an audio data file that is saved in the Wav format by digitizing audio data using the PCM (Pulse Code Modulation) method, but the present invention is not limited to this. Instead, for example, an audio data file in another format such as an audio data file in MIDI (Musical Instruments Digital Interface) format may be used.
[0036]
FIG. 5 is a diagram showing a configuration of the interrupt information table D stored in the
Here, “DotX” indicates the X coordinate on the displayed image, and “DotY” indicates the Y coordinate on the image. “CellX” indicates the position in the X-axis direction of the cell corresponding to the coordinates of the
[0037]
In the example shown in FIG. 5, since “DotX” is set to “330” and “DotY” is set to “87”, the coordinate position of the
[0038]
Next, operations in the
[0039]
FIG. 6 is a flowchart showing an image / event information registration process executed by the
[0040]
In the image / event information registration process of FIG. 6, the
[0041]
Subsequently, a ruled line for dividing the displayed image into a predetermined number of cells is displayed so as to overlap the displayed image (step S12). Note that the number of ruled lines displayed here is a preset specified value.
When an instruction to change the number of vertical and horizontal cells is input from the
[0042]
Next, it is determined whether or not the adjustment of the number of cells in the image being displayed has been completed (step S14). If the adjustment has not been completed, the process returns to step S13. If the adjustment has been completed, the process returns to step S15. Transition.
[0043]
In step S15, the image information table B (FIG. 3) displays the image No. of the image being displayed. Are newly added and set (step S15). The number of cells into which the image is divided is set as “DivX” and “DivY” (step S16). In step S16, the added image No. The original dot size indicated by the image data of this image is set as “ImageX” and “ImageY”.
[0044]
Subsequently, associating each object shown in this image with each cell is executed for the image being displayed.
That is, a cell that overlaps one object among objects such as a person shown in the displayed photographic image is designated as a range by an instruction input from the input device 3 (step S17), and is associated with the designated cell. An object ID is input (step S18). The
[0045]
Here, the
[0046]
Subsequently, an event corresponding to the new object ID set in step S21 is registered.
First, when the event type corresponding to the object ID newly set in step S21 is selected and input (step S22), and the output of “voice” is selected as the event, the process proceeds to step S23. In step S23, the file name of the data file in which the audio data to be output is stored is input. In subsequent step S24, the “event type” of the object information table C is set to “audio” in association with the new object ID. Is set. Further, the data file name input in step S23 is set in the object information table C in association with the object ID (step S25).
[0047]
In step S26, it is determined whether or not there is an object to be set subsequently in the image being displayed. If setting for another object is performed, the process returns to step S17 to complete the setting for the object. If it is determined, the process is terminated as it is.
[0048]
On the other hand, when “text” display is selected and designated as an event corresponding to the object in step S22, the process proceeds to step S27, and a character string to be displayed is input from the
[0049]
Subsequently, “text” is set as the “event type” corresponding to the object in the object information table C (step S28), and further, the character string input in step S27 is set in “event data”. (Step S29), the process proceeds to Step S26. When the setting for the object is completed in step S26, the image / event registration process is terminated.
[0050]
FIG. 7 is a flowchart showing image browsing processing executed by the
In the image browsing process shown in FIG. 7, a designated image is read out from images stored in an image database (not shown) in the
[0051]
First, when an image is selected and designated from images stored in an image database (not shown) in the
[0052]
Subsequently, the
[0053]
In step S34, the display magnification of the image being displayed is designated by an instruction input from the
[0054]
On the other hand, if an instruction to change the enlargement ratio has not been input in step S33, the process proceeds to step S37 to guide the user whether or not to view the next image. When an instruction to view the image is input (step S37; Yes), the process returns to step S31.
If the input to view the next image has not been made (step S33; No), the process proceeds to step S38 to guide the input as to whether or not to end the image browsing process and not to end. Is entered, the process proceeds to step S33. Further, the process is ended in accordance with an input to end the image browsing process.
[0055]
FIG. 8 is a flowchart showing mouse interrupt processing executed by the
In the mouse interrupt processing shown in FIG. 8, when the
[0056]
In the mouse interrupt process of FIG. 8, first, physical coordinates represented by the coordinate data input from the
[0057]
Subsequently, the
[0058]
Then, based on the above “DotX”, “DotY”, “ImageX”, “ImageY”, “ZoomX”, “ZoomY”, “DivX”, and “DivY”, the cell corresponding to the coordinates specified in step S41 The position is calculated (step S45).
That is, the
[0059]
CellX = int (DotX * DivX / (ImageX * ZoomX)) + 1 (1)
CellY = int (DotY * DivY / (ImageY * ZoomY)) + 1 (2)
[0060]
Then, the
[0061]
FIG. 9 is a flowchart showing a user interrupt control process executed by the
[0062]
The user interrupt handler is program code that is executed based on the user's operation on the
[0063]
First, the
[0064]
Here, the
[0065]
If the event type acquired in step S52 is “text” in step S53, the process proceeds to step S56, the text data set in the object information table C is read, and the character string of this text data is read. Text display processing to be displayed on the display screen is executed (step S57).
[0066]
Then, after the voice output process or the text display process is finished, the user interrupt control process is finished.
[0067]
10-16 is a figure which shows an example of the screen displayed by the
FIG. 10 is a diagram illustrating an example of an image
[0068]
On the image
[0069]
FIG. 11 is a diagram illustrating an example of the designated
[0070]
FIG. 12 is a diagram illustrating an example of the
In the example shown in FIG. 12, the image being displayed is divided into seven vertical and seven horizontal cells. It should be noted that the number of ruled lines displayed on the image on the
[0071]
FIG. 13 is a diagram illustrating an example of the
The
[0072]
FIG. 14 is a diagram illustrating an example of the object
[0073]
Here, FIG. 15 shows an example in which the object
FIG. 15 is a diagram illustrating an example of the enlargement
[0074]
In the example shown in FIG. 15, the object
Further, even when the image is reduced as in the object
[0075]
Note that an image in which the display magnifications “ZoomX” and “ZoomY” are set in the image information table B (FIG. 3) in the
[0076]
FIG. 16 is a diagram illustrating an example of the
In the example shown in FIG. 16, the
[0077]
As described above, according to the
[0078]
Therefore, when a point on the image is designated by the
[0079]
Further, according to the
[0080]
According to the
[0081]
Further, if the above-described mouse interrupt processing is configured as a function of a basic control program such as an OS (Operation System) of the
[0082]
In the
[0083]
In the
[0086]
【The invention's effect】
Claim1According to the image processing apparatus of the described invention, when a point on the image is designated, an area including the designated point is determined, and an identification code corresponding to this area is output. For this reason, it is possible to easily detect an object corresponding to a specified point by storing an identification code indicating which of the objects constituting the image corresponds to each area. Can do. Also, even when processing multiple different images, there is no need to perform processing such as detection of the coordinates where the object of each image is located, so processing can be performed without significantly improving hardware capabilities through efficiency. The increase in cost can be realized and the increase in cost can be suppressed. Furthermore, various processes can be easily performed based on the identification code of the area including the designated point, and various devices that operate according to the coordinates of the designated point on the image can be easily realized. Can do.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an internal configuration of a
FIG. 2 is a diagram showing an example of the configuration of a cell information table A stored in the
3 is a diagram showing an example of the configuration of an image information table B stored in the
4 is a diagram showing an example of the configuration of an object information table C stored in the
5 is a diagram showing an example of a configuration of an interrupt information table D stored in the
6 is a flowchart showing image / event information registration processing executed by
7 is a flowchart showing image browsing processing executed by a
FIG. 8 is a flowchart showing mouse interrupt processing executed by the
FIG. 9 is a flowchart showing user interrupt control processing executed by
10 is a diagram showing an example of an image
11 is a diagram showing an example of a designated
12 is a diagram showing an example of a
13 is a diagram showing an example of a
14 is a diagram showing an example of an object
15 is a diagram showing an example of an enlargement
16 is a diagram showing an example of an
[Explanation of symbols]
1 Computer system
2 CPU (image dividing means; determination means; position information output means; processing means; identification code output means; control means; display control means)
3 input devices (specifying means)
3a mouse
3b pointer
4 RAM
5. Display device (display means)
51 Image list display screen
52 Designated image display screen
53 Cell display screen
54 Cell selection screen
55 Object ID display screen
56 Enlargement rate change screen
57 Event execution screen
6 Printing device
7. Storage device (image storage means; processing storage means; identification code storage means)
8 storage media
9 Bus
A Cell information table (identification code storage means)
B Image information table
C Object information table (processing storage means)
D Interrupt information table
Claims (4)
この画像記憶手段に記憶された画像を表示する表示手段と、
この表示手段により表示された画像を格子状に分割して複数のセルを生成する画像分割手段と、
前記画像分割手段により生成された複数のセルの数と前記画像及び複数のセルの座標と識別符号と複数の処理情報とが対応付けられるテーブルを記憶する記憶手段と、
前記表示手段により表示された画像上の点を指定する指定手段と、
前記テーブルを参照して前記複数のセルの数を取得し、前記指定手段により指定された点の前記画像上における座標と当該複数のセルの数とに基づいて前記指定された点を含むセルを判別する判別手段と、
前記テーブルを参照し、前記判別手段により判別されたセルに対応する識別符号を出力する識別符号出力手段と、
前記テーブルを参照し、前記識別符号出力手段により出力された識別符号に対応する処理情報に基づいて処理を実行する処理手段と、
を備えることを特徴とする画像処理装置。Image storage means for storing images;
Display means for displaying an image stored in the image storage means;
An image dividing means for dividing the image displayed by the display means into a grid and generating a plurality of cells ;
Storage means for storing a table in which the number of the plurality of cells generated by the image dividing unit, the coordinates of the image and the plurality of cells, an identification code, and a plurality of pieces of processing information are associated with each other;
Designation means for designating a point on the image displayed by the display means;
By referring to the table to obtain the number of the plurality of cells, a cell that contains a point above specified based on the number of coordinates and the plurality of cells on the image of the point specified by the specifying means Discriminating means for discriminating;
An identification code output means for referring to the table and outputting an identification code corresponding to the cell determined by the determination means;
Processing means for referring to the table and executing processing based on processing information corresponding to the identification code output by the identification code output means;
An image processing apparatus comprising:
前記処理手段が実行する前記処理は、音声の出力又は前記表示手段上へのテキストの出力であることを特徴とする画像処理装置。The image processing apparatus according to claim 1, wherein the processing executed by the processing means is output of a voice or output of text on the display means.
この画像記憶手段に記憶された画像を表示する表示手段と、
前記画像記憶手段に記憶された画像を所定の表示倍率で拡大または縮小して前記表示手段に表示させる表示制御手段と
前記表示手段により表示された画像を格子状に分割して複数のセルを生成する画像分割手段と、
前記画像分割手段により生成された複数のセルの数、前記画像を前記表示手段に表示する際の基準となる基準ドットサイズ、前記表示制御手段による前記画像の拡大又は縮小表示倍率及び前記画像とが対応づけられ、前記複数のセルの座標と識別符号及びこの識別符号と複数の処理情報とが対応づけられるテーブルを記憶する記憶手段と、
前記表示制御手段により拡大または縮小表示された画像上の点を指定する指定手段と、
前記テーブルを参照して前記複数のセルの数と、基準ドットサイズと、拡大又は縮小表示倍率とを取得し、前記指定手段により指定された点の前記画像上における座標と、当該複数のセルの数と、当該基準ドットサイズと、当該拡大又は縮小表示倍率とに基づいて前記指定された点を含むセルを判別する判別手段と、
前記テーブルを参照し、前記判別手段により判別された領域に対応する識別符号を出力する識別符号出力手段と、
前記識別符号出力手段により識別符号が出力されると、前記テーブルを参照し、当該識別符号に対応する処理情報に基づいて所定の処理を実行する制御手段と、
を備えることを特徴とする画像処理装置。 Image storage means for storing images;
Display means for displaying an image stored in the image storage means;
Display control means for enlarging or reducing the image stored in the image storage means at a predetermined display magnification and displaying on the display means;
Image dividing means for dividing the image displayed by the display means into a grid and generating a plurality of cells;
The number of the plurality of cells generated by the image dividing means, the reference dot size as a reference when displaying the image on the display means, the enlargement or reduction display magnification of the image by the display control means, and the image are correlated, and storage means for storing a table in which the coordinates of the plurality of cells and the identification code and the identification code and a plurality of processing information is associated,
Designating means for designating a point on the image enlarged or reduced by the display control means;
The number of the plurality of cells, the reference dot size, and the enlargement / reduction display magnification are acquired with reference to the table, the coordinates of the point designated by the designation unit on the image, and the plurality of cells Discriminating means for discriminating a cell including the designated point based on the number, the reference dot size, and the enlargement or reduction display magnification;
An identification code output means for referring to the table and outputting an identification code corresponding to the area determined by the determination means;
When the identification code is output by the identification code output unit, the control unit refers to the table and executes a predetermined process based on the processing information corresponding to the identification code;
An image processing apparatus comprising:
前記制御手段が実行する所定の処理は、音声の出力又は前記表示手段上へのテキストの出力であることを特徴とする画像処理装置。2. The image processing apparatus according to claim 1, wherein the predetermined processing executed by the control means is output of a voice or output of text on the display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5550799A JP3951492B2 (en) | 1999-03-03 | 1999-03-03 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5550799A JP3951492B2 (en) | 1999-03-03 | 1999-03-03 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000250678A JP2000250678A (en) | 2000-09-14 |
JP3951492B2 true JP3951492B2 (en) | 2007-08-01 |
Family
ID=13000598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5550799A Expired - Fee Related JP3951492B2 (en) | 1999-03-03 | 1999-03-03 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3951492B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4534466B2 (en) * | 2003-11-18 | 2010-09-01 | 富士ゼロックス株式会社 | Mobile terminal device |
JP4813119B2 (en) * | 2005-07-29 | 2011-11-09 | 有限会社センチュリー・ブラザーズ | Digital broadcast receiver |
JP4730962B2 (en) * | 2006-04-04 | 2011-07-20 | Kddi株式会社 | Mobile terminal with touch panel display and program |
CN103577322B (en) * | 2012-08-08 | 2015-08-12 | 腾讯科技(深圳)有限公司 | A kind of hit testing method and apparatus |
JP6127465B2 (en) * | 2012-11-20 | 2017-05-17 | 株式会社リコー | Information processing apparatus, information processing system, and program |
CN112466253B (en) * | 2020-11-30 | 2022-02-18 | 合肥维信诺科技有限公司 | Display judgment method, device, equipment and storage medium |
-
1999
- 1999-03-03 JP JP5550799A patent/JP3951492B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000250678A (en) | 2000-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4010460B2 (en) | Image processing method and image processing apparatus | |
US7051289B1 (en) | Window display device and method, and a recording medium recording a window display control program | |
US20060075362A1 (en) | Image processing apparatus, method, and recording medium on which program is recorded for displaying thumbnail/preview image | |
JP2004012633A (en) | List display of multiple images | |
JP3951492B2 (en) | Image processing device | |
JP2000298679A (en) | Information processor arranging plural object on map and its object arranging method | |
JP2003296027A (en) | Method of optimizing button recognition area on touch panel | |
JP4631261B2 (en) | Captured image projection apparatus, image processing method thereof, and program | |
JP2001005911A (en) | Character input device and display controlling method | |
JPH10187679A (en) | Table processor and storage medium | |
JPH11272393A (en) | Position designation device and storage medium | |
KR20050075122A (en) | Method and apparatus generating plural images by scanning of one time | |
JPH1055431A (en) | Image processor | |
JP2866287B2 (en) | Music score creation device | |
JP2539395B2 (en) | Information processing device | |
JPH0554114A (en) | Image display device | |
JPH08287272A (en) | Document preparation device and plane figure arranging method | |
JPH0991462A (en) | Image processing unit and its method | |
JP2805435B2 (en) | Music score creation device | |
JPH07302322A (en) | Picture display device | |
JPH0241557A (en) | Format set processing system of layout display | |
JPH04118763A (en) | Document preparing device | |
JPH11184936A (en) | Method and device for slip preparation and recording medium | |
JPH1185733A (en) | Document editing device and its method and recording medium | |
JPH06266706A (en) | Word processor with character size changing function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070416 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110511 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110511 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120511 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120511 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130511 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130511 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |