JP3951492B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3951492B2
JP3951492B2 JP5550799A JP5550799A JP3951492B2 JP 3951492 B2 JP3951492 B2 JP 3951492B2 JP 5550799 A JP5550799 A JP 5550799A JP 5550799 A JP5550799 A JP 5550799A JP 3951492 B2 JP3951492 B2 JP 3951492B2
Authority
JP
Japan
Prior art keywords
image
display
identification code
displayed
cells
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5550799A
Other languages
Japanese (ja)
Other versions
JP2000250678A (en
Inventor
聡 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP5550799A priority Critical patent/JP3951492B2/en
Publication of JP2000250678A publication Critical patent/JP2000250678A/en
Application granted granted Critical
Publication of JP3951492B2 publication Critical patent/JP3951492B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、表示中の画像上の特定の点が指定された際に、指定された点の属性に応じた動作を行う画像処理装置に関する。
【0002】
【従来の技術】
従来、画像処理を行うコンピュータシステムにおいて、表示画面上に画像を表示するとともに、その画像に映った人物などのオブジェクトを判別するものがあった。さらに、画像中の各オブジェクトに対応づけて所定の動作を設定しておき、表示中の画像上の点がポインティングデバイスによって指定されると、指定された点に該当するオブジェクトを判別し、判別されたオブジェクトに対応する動作を行うものが知られていた。
【0003】
例えば、表示画面上に人物の写真が表示された状態で、マウス等によって人物の像の上の点を指定すると、指定された点が人物の像の上の点であることを判別して、その人物の名前やメッセージを表示する等の動作を行うことがあった。
【0004】
【発明が解決しようとする課題】
ところが、上記のような処理においては、ポインティングデバイスによって指定された点に該当するオブジェクトを判別する処理が複雑であり、効率的な処理が困難であるという問題があった。
【0005】
即ち、上記従来のコンピュータシステムでは、予め、画像中で各オブジェクトが占める領域を座標をもとに記憶しておき、この各オブジェクトが占める領域と、ポインティングデバイスによって指定された点の座標とをもとに演算処理を行っていた。このため、複数の画像について処理を行う場合には、各画像毎にオブジェクトが占める領域を座標をもとに記憶し、また、指定された点の座標に該当するオブジェクトを判別するための演算式を各画像毎に設定する必要があった。
さらに、上記のような設定が済んだ画像であっても、拡大、或いは縮小された場合には、再度、各オブジェクトの占める領域を判別するための演算式の設定等を行う必要があった。
【0006】
このため、コンピュータシステムで取り扱われるデータ量および演算処理量が多く、処理に時間がかかるという問題があった。この問題を回避するために、従来はコンピュータシステムのハードウェア能力を向上させる必要があり、コストの上昇を招いていた。
【0007】
この発明は、上記問題点を解決するため、複数のオブジェクトで構成される画像上の任意の点が指定された際に、指定された点に該当するオブジェクトを容易に、かつ、効率よく判別できる画像処理装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
請求項記載の発明は、画像を記憶する画像記憶手段と、この画像記憶手段に記憶された画像を表示する表示手段と、この表示手段により表示された画像を格子状に分割して複数のセルを生成する画像分割手段と、前記画像分割手段により生成された複数のセルの数と前記画像及び複数のセルの座標と識別符号と複数の処理情報とが対応付けられるテーブルを記憶する記憶手段と、前記表示手段により表示された画像上の点を指定する指定手段と、前記テーブルを参照して前記複数のセルの数を取得し、前記指定手段により指定された点の前記画像上における座標と当該複数のセルの数とに基づいて前記指定された点を含むセルを判別する判別手段と、前記テーブルを参照し、前記判別手段により判別されたセルに対応する識別符号を出力する識別符号出力手段と、
前記テーブルを参照し、前記識別符号出力手段により出力された識別符号に対応する処理情報に基づいて処理を実行する処理手段と、を備えることを特徴としている。
【0011】
この請求項記載の画像処理装置によれば、画像上の点が指定されると、指定された点を含む領域を判別し、この領域に対応する識別符号を出力する。このため、画像を構成する各オブジェクトのうちのどのオブジェクトに該当するかを示す識別符号を各領域に対応づけて記憶させておくことにより、指定された点に該当するオブジェクトを容易に検知することができる。また、異なる複数の画像を処理する場合であっても、各画像のオブジェクトが位置する座標の検出等の処理を行う必要がないので、効率化によってハードウェアの能力を極端に向上させることなく処理の高速化を実現し、コストの増大を抑制することができる。さらに、指定された点を含む領域の識別符号をもとに各種処理を行わせることも容易であり、画像上で指定された点の座標に応じて動作を行う各種装置を容易に実現することができる。
【0012】
【発明の実施の形態】
以下、この発明の実施の形態について、図1〜図16の図面を参照しながら説明する。
【0013】
なお、本発明の実施の形態において、CPU2は、画像・イベント情報登録処理(図6)のステップS12〜14を実行することで請求項記載の画像分割手段に対応し、同様に、マウス割り込み処理(図8)のステップS41〜45を実行することで判別手段および位置情報出力手段に対応し、ユーザ割り込み制御処理(図9)を実行することで処理手段に対応し、マウス割り込み処理(図8)のステップS46〜47を実行することで識別符号出力手段および制御手段に対応し、画像閲覧処理(図7)のステップS33〜36を実行することで表示制御手段に対応する。
【0014】
また、記憶装置7は、画像データベース(図示略)を格納することによって請求項記載の画像記憶手段に対応し、オブジェクト情報テーブルC(図4)を格納することによって処理記憶手段に対応し、セル情報テーブルA(図2)を格納することによって識別符号記憶手段に対応する。
【0015】
さらに、表示装置5は請求項記載の表示手段に対応し、入力装置3は請求項記載の指定手段に対応する。その他、後述するセルは請求項記載の領域に対応し、オブジェクトIDは請求項記載の識別符号に対応する。
【0016】
まず、構成を説明する。
【0017】
図1は、本発明を適用した実施の形態としてのコンピュータシステム1の概略構成を示すブロック図である。この図1に示すように、コンピュータシステム1は、CPU(Central Processing Unit )2、入力装置3、RAM(Random Access Memory)4、表示装置5、印刷装置6、記憶装置7および記憶装置7が備える記憶媒体8により構成され、記憶媒体8を除く各部はバス9によって接続されている。
【0018】
CPU2は、記憶装置7に格納される各種プログラムを読み込んでRAM4内に設けられたメモリエリアに展開し、コンピュータシステム1が有する各部の制御を実行する。すなわち、CPU2は、記憶装置7内に格納された基本制御プログラムを実行し、コンピュータシステム1の電源投入直後にコンピュータシステム1の各部を初期状態に移行させるための初期制御処理を実行するとともに、コンピュータシステム1により実行中の各種処理に係る画面を表示するための表示情報を生成して表示装置5に出力し、表示画面上に各種画像を表示させる。さらに、CPU2は、入力装置3からの指示入力により印刷実行が指示されると、当該指示により指定された文書あるいは画像等を印刷するための印刷情報を生成して印刷装置6に出力し、印刷を実行させる等、その他の各種制御処理を実行する。
【0019】
また、CPU2は、入力装置3からの指示入力に応じて記憶装置7内に格納された画像・イベント情報登録処理プログラムを読み込んで実行し、指定された画像データを読み込み、この画像データをもとに表示装置5の表示画面上に画像を表示させる。そして、表示中の画像を縦方向および横方向に所定の数に分割する罫線を当該画像に重ねて表示することで画像上に複数のセルを表示させる。また、表示中の画像の左上隅を原点として設定して、この原点をもとに水平方向にX軸を設定するとともに、垂直方向にY軸を設定する。
【0020】
続いてCPU2は、表示中の画像に係る画像データを記憶装置7内の画像データベース(図示略)に追加するとともに、当該画像上に表示される縦方向および横方向のセルの数を、記憶装置7に格納される画像情報テーブルB(図3)に設定する。さらに、表示中の画像上における各セルについて、対応するオブジェクトを示すオブジェクトIDが入力装置3からの指示入力によって指定されると、各セルに対応するオブジェクトIDを記憶装置7内に格納されるセル情報テーブルA(図2)に設定する。そして、CPU2は、各オブジェクトIDに対応して実行されるイベントの種類及びその内容を示すファイルを、記憶装置7内に格納されるオブジェクト情報テーブルC(図4)に設定する。
【0021】
また、CPU2は、記憶装置7内の画像データベース(図示略)に格納される画像のうちいずれかの画像が指定された場合には、画像閲覧処理プログラムを記憶装置7から読み込んで実行し、指定された画像を画像データベース(図示略)から読み出して表示画面上に表示させるとともに、表示時の拡大倍率が変更された場合には変更後の拡大率を画像情報テーブルB(図3)に設定する。そして、表示画面上に画像が表示された状態で入力装置3が備えるマウス3aが操作された場合には、マウス割り込み処理プログラムを実行して、マウス3aの操作によって指定された座標に基づいて画像情報テーブルBを参照することにより、指定された座標に該当する位置のセルを判別し、判別されたセルに設定されたオブジェクトIDを取得し、このオブジェクトIDを記憶装置7内の割り込み情報テーブルD(図4)に設定する。続いて、CPU2は、記憶装置7内に格納されたユーザ割り込みハンドラを読み込んで実行し、割り込み情報テーブルDから取得したオブジェクトIDに対応するイベントを、オブジェクト情報テーブルCを参照することによって実行する。
【0022】
なお、オブジェクトとは、例えば写真における各被写体、背景、イラスト中の建物や人、動物等、画像を構成する事物を指す。
【0023】
入力装置3は、数字キー、文字キー、および各種機能キーを備えたキーボードを備え、これら各キーの押下時に押下されたキーに対応する押下信号を生成してCPU2に出力する。また、入力装置3は、ポインティングデバイスとしてマウス3aを備えている。このマウス3aは、表示装置5の表示画面上に表示されたポインタ3bを表示画面上で移動させることにより、ポインタ3bが位置する座標を指定する。入力装置3は、クリック操作等のマウス3aの操作時に、表示画面上におけるポインタ3bの座標を示す座標データを操作信号とともにCPU2に出力する。
【0024】
RAM4は、CPU2により処理される各種プログラムや、その処理に係るデータを一時的に格納するメモリエリアを形成する。
【0025】
表示装置5は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成される表示画面を備え、この表示画面を、CPU2から入力される表示情報に基づいて駆動制御することによって画像等の各種の表示を実行する。
【0026】
印刷装置6は、レーザープリンタ、インクジェット式プリンタ、或いは、昇華型プリンタ等のプリンタを備え、CPU2から入力される印刷情報に基づいて前記プリンタを駆動制御することによって、コンピュータシステム1により処理される各種文書および画像を印刷出力する。
【0027】
記憶装置7は、プログラムやデータ等が記憶される記憶媒体8を有し、この記憶媒体8は磁気的、光学的記録媒体、若しくは半導体メモリで構成されている。この記憶媒体8は記憶装置7に固定的に設けたもの、若しくは着脱自在に装着するものである。この記憶装置7内には、CPU2によって実行される基本制御処理プログラム、画像・イベント情報登録処理プログラム、画像閲覧処理プログラム、マウス割り込み処理プログラム等の各種アプリケーションプログラムや、ユーザ割り込みハンドラ等のプログラムコードが格納される。また、記憶装置7において、上記の各種アプリケーションプログラムをCPU2によって実行する際に必要な各種データは、セル情報テーブルA、画像情報テーブルB、オブジェクト情報テーブルCおよび割り込み情報テーブルDの各テーブルに記憶される。さらに、記憶媒体8内には、複数の画像のデータが格納された画像データベース(図示略)が記憶されるとともに、この画像データベース(図示略)に登録されていない画像のデータ等を記憶する記憶領域を設けることも可能である。
【0028】
また、上記の記憶媒体8に記憶されるデータ等は、通信回線等を介して接続された他の機器から受信して記憶する構成にしてもよく、さらに、通信回線等を介して接続された他の機器側に上記記憶媒体8を備えた記憶装置を設け、この記憶媒体16に記憶されているプログラムやデータを通信回線を介して使用する構成としても良い。
【0029】
ここで、記憶装置7内に格納される各種のテーブルについて説明する。
【0030】
図2は、記憶装置7内に格納されるセル情報テーブルAの構成を示す図である。このセル情報テーブルAには、表示中の画像の左上隅を原点とした場合の各セルのX軸(横)方向およびY軸(縦)方向の位置と、後述する画像・イベント情報登録処理(図6)で指定されたオブジェクトIDとが対応づけて設定されている。
【0031】
例えば、「X位置」が「1」、「Y位置」が「4」のセルは、表示中の画像の左上隅からX軸方向に1番目の位置で、かつ、Y軸方向に4番目のセル座標に位置するセルである。そして、このセルに対応づけて設定されたオブジェクトIDが「1」であれば、このセルに該当する座標位置がマウス3aによって指定された際に、CPU2は、オブジェクトIDとして「1」を出力する。
【0032】
また、図3は、記憶装置7内に格納される画像情報テーブルBの構成を示す図である。この画像情報テーブルBには、画像データベース(図示略)に格納される各画像の画像No.(番号)に対応づけて、各画像を表示する際の拡大率が「表示拡大率(ZoomX,ZoomY)」として設定されている。このうち「ZoomX」はX軸方向の拡大率を示し、「ZoomY」はY軸方向の拡大率を示す。また、画像情報テーブルBには、各画像に係る画像データをそのまま表示した場合のサイズをドット単位で示した「オリジナルドットサイズ(ImageX,ImageY)」が設定される。「ImageX」はX軸方向のドット数を示し、「ImageY」はY軸方向のドット数を示す。さらに、画像情報テーブルBには、画像上に表示される罫線によって画像をセルに分割する際のセルの数を示す「セル分割数(DivX,DivY)」が設定されている。ここで「DivX」はX軸方向のセルの数を示し、「DivY」はY軸方向のセルの数を示す。
【0033】
例えば、図3中、「画像No.2」には、表示拡大率として「ZoomX」に「1」、「ZoomY」に「1」が設定されている。また、「オリジナルドットサイズ」としては「ImageX」に「300」が設定され、「ImageY」には「200」と設定されている。従って、「画像No.2」として画像データベース(図示略)に格納された画像データは、もとのサイズが「横300ドット×縦200ドット」の画像であり、表示装置5の表示画面上には縦横それぞれ「1倍」の倍率で表示される。また、セル分割数として「DivX」に「7」が設定され「DivY」に「7」が設定されているので、この「No.2」の画像が表示画面上に表示された際には、X軸方向に7個、Y軸方向に7個のセルが並ぶように罫線が表示される。なお、上記の「オリジナルドットサイズ」は、ピクセル(画素)数で表現されていても良い。
【0034】
図4は、記憶装置7内に格納されるオブジェクト情報テーブルCの構成を示す図である。オブジェクト情報テーブルCには、各オブジェクトIDに設定されたイベントの種類と、その内容を示すファイルが設定されている。具体的には、対応するイベントとしてテキスト(文字列)が表示されるオブジェクトIDには、「イベント種別」として「テキスト」が設定され、その内容を示す「イベントデータ」にはイベント実行時に表示される文字列が設定される。また、オブジェクトIDに対応するイベントとして音声が出力される場合には、「イベント種別」に「音声」が設定され、「イベントデータ」には音声データのファイル名が設定される。
【0035】
例えば、図4で「オブジェクトID」が「1」のオブジェクトに対応づけて設定されたイベントの「イベント種別」は「テキスト」であり、「イベントデータ」としては「高野です〜」と設定されている。つまり、「オブジェクトID」が「1」のオブジェクトに対応するイベントは、「高野です〜」という文字列の表示である。
同様に、図4で「オブジェクトID」が「2」のオブジェクトに対応する「イベント種別」は「音声」であり、「イベントデータ」として「“nakamura.wav”」が設定されている。従って、「オブジェクトID」が「2」のオブジェクトに対応するイベントの実行時には、「“nakamura.wav”」というデータファイルに記憶された音声データをもとにして音声が出力される。
なお、このデータファイル「“nakamura.wav”」は、PCM(Pulse Code Modulation )方式で音声データをデジタル化してWav形式で保存された音声データファイルであるが、本発明はこれに限定されるものではなく、例えば、MIDI(Musical Instruments Digital Interface )形式の音声データファイル等、他の形式の音声データファイルを利用しても良い。
【0036】
図5は、記憶装置7に格納される割り込み情報テーブルDの構成を示す図である。この割り込み情報テーブルDには、マウス3aが操作された際に、ポインタ3bの画像上における座標(DotX,DotY)と、この座標に該当するセルの位置(CellX,CellY)と、このセルに対応づけられたオブジェクトIDとが設定される。
ここで、「DotX」は表示中の画像上におけるX座標を示し、「DotY」は画像上におけるY座標を示す。また、「CellX」は、ポインタ3bの座標に該当するセルのX軸方向の位置を示し、「CellY」はY軸方向の位置を示す。
【0037】
図5に示す例では、「DotX」が「330」、「DotY」が「87」と設定されているので、表示中の画像の左上隅を原点として、マウス3a操作時のポインタ3bの座標位置は(330,87)である。また、「CellX」と「CellY」とがそれぞれ「5」と「3」とに設定されているので、(330,87)の座標位置には、X軸方向に5番目、Y軸方向に3番目のセルが位置することになる。
【0038】
続いて、上記のように構成されるコンピュータシステム1における動作について、図6から図16に従って説明する。
【0039】
図6は、CPU2により実行される画像・イベント情報登録処理を示すフローチャートである。この図6に示す画像・イベント情報登録処理は、記憶装置7内の画像データベース(図示略)に新しい画像を登録するとともに、この画像に対応づけて実行されるイベントについての設定を行う処理である。なお、この図6に示す画像・イベント情報登録処理は、既に画像データベース(図示略)に登録されている画像について、新たなイベント情報を設定したり、設定をやり直す等の目的で実行することも可能である。
【0040】
図6の画像・イベント情報登録処理において、CPU2は、処理対象として指定された画像の画像データがコンピュータシステム1の外部あるいは記憶装置7から読み込まれ、この画像データが示す本来のドット数であるオリジナルドットサイズで表示装置5の表示画面上に画像が表示される(ステップS11)。
【0041】
続いて、表示中の画像を所定の数のセルに分割するための罫線が、表示中の画像に重ねて表示される(ステップS12)。なお、ここで表示される罫線の数は、予め設定された規定値である。
そして、ステップS12で罫線が表示された後に、縦方向および横方向のセルの数を変更する指示が入力装置3から入力された場合には、入力された指示に応じて表示中の罫線の数を変更して再度罫線を表示させる(ステップS13)。
【0042】
次いで、表示中の画像におけるセルの数の調整が終了したか否かを判別し(ステップS14)、調整が終了していない場合にはステップS13に戻り、調整が終了した場合にはステップS15に移行する。
【0043】
ステップS15では、画像情報テーブルB(図3)に、表示中の画像の画像No.を新たに追加して設定し(ステップS15)、追加された画像No.に対応づけて、画像を分割するセルの数を「DivX」および「DivY」として設定する(ステップS16)。また、このステップS16では、追加された画像No.に対応づけて、この画像の画像データが示すオリジナルドットサイズが「ImageX」および「ImageY」として設定される。
【0044】
続いて、表示中の画像について、この画像に映っている各オブジェクトと、各セルとの対応付けが実行される。
即ち、表示中の写真画像に映っている人物等のオブジェクトのうち1個のオブジェクトと重なるセルが入力装置3からの指示入力によって範囲指定され(ステップS17)、指定されたセルに対応づけられたオブジェクトIDが入力される(ステップS18)。CPU2は、入力されたオブジェクトIDを、範囲選択されたセルに対応づけてセル情報テーブルA(図2)に設定し(ステップS19)、ステップS20に移行する。
【0045】
ここでCPU2は、ステップS19で設定されたオブジェクトIDが当該画像に対して初めて設定された新規オブジェクトIDであるか否かを判別し(ステップS20)、このオブジェクトIDが既に設定されたことがある場合には後述するステップS26に移行する。また、新規のオブジェクトIDであれば、オブジェクト情報テーブルC(図4)に、ステップS18で入力されたオブジェクトIDを設定する(ステップS21)。
【0046】
続いて、ステップS21で設定された新規のオブジェクトIDに対応するイベントが登録される。
まず、ステップS21で新規に設定されたオブジェクトIDに対応するイベントの種類が選択入力され(ステップS22)、「音声」の出力がイベントとして選択された場合には、ステップS23に移行する。ステップS23では、出力すべき音声のデータが記憶されたデータファイルのファイル名が入力され、続くステップS24で、新規のオブジェクトIDに対応づけてオブジェクト情報テーブルCの「イベント種別」が「音声」に設定される。また、ステップS23で入力されたデータファイル名は、オブジェクトIDに対応づけてオブジェクト情報テーブルCに設定される(ステップS25)。
【0047】
ステップS26では、表示中の画像において、続いて設定を行うべきオブジェクトがあるか否かを判別し、他のオブジェクトについての設定が行われる場合にはステップS17に戻り、オブジェクトについての設定が終了したと判別された場合には、そのまま処理を終了する。
【0048】
一方、ステップS22で、オブジェクトに対応するイベントとして「テキスト」の表示が選択指定された場合には、ステップS27に移行して、表示すべき文字列が入力装置3から入力される。
【0049】
続いて、オブジェクト情報テーブルCに、オブジェクトに対応する「イベント種別」として「テキスト」が設定され(ステップS28)、さらに、「イベントデータ」に、ステップS27で入力された文字列が設定されると(ステップS29)、ステップS26に移行する。そして、ステップS26でオブジェクトについての設定が終了した場合には、画像・イベント登録処理を終了する。
【0050】
図7は、本発明の実施の形態におけるコンピュータシステム1において、CPU2により実行される画像閲覧処理を示すフローチャートである。
この図7に示す画像閲覧処理は、記憶装置7内の画像データベース(図示略)に格納された画像の中から指定された画像を読み出して、画像情報テーブルB(図3)の設定内容に従って表示装置5に表示させる処理である。
【0051】
まず、入力装置3からの指示入力によって、記憶装置7内の画像データベース(図示略)に格納された画像の中から画像が選択指定されると(ステップS31)、CPU2は、選択指定された画像の画像データを読み込むとともに画像情報テーブルBを参照し、画像情報テーブルBに設定されたオリジナルドットサイズで選択指定された画像を表示画面上に表示させる(ステップS32)。
【0052】
続いて、CPU2は、表示中の画像の拡大率を変更する旨の指示入力の有無を判別し(ステップS33)、拡大率の変更が指示された場合にはステップS34に移行する。
【0053】
ステップS34では、入力装置3からの指示入力によって表示中の画像の表示拡大率が指定される。そして、CPU2は、ステップS34で指定された拡大率を画像情報テーブルBに「ZoomX」および「ZoomY」として設定し(ステップS35)、この新しい拡大率に従って、表示中の画像を再度表示装置5に表示させて(ステップS36)、ステップS33に戻る。ここで、再度、表示拡大率を変更する場合には、ステップS34〜ステップS36の処理を再度実行する。
【0054】
一方、ステップS33で、拡大率の変更の指示が入力されなかった場合には、ステップS37に移行して、次の画像を閲覧するか否かの指示入力を利用者に対して案内し、次の画像を見るとの指示が入力された場合には(ステップS37;Yes)、ステップS31に戻る。
また、次の画像を見る旨の入力が行われなかった場合には(ステップS33;No)、ステップS38に移行して、画像閲覧処理を終了するか否かの入力を案内し、終了しない旨の入力が行われた場合には、ステップS33に移行する。また、画像閲覧処理を終了する旨の入力に従って処理を終了する。
【0055】
図8は、入力装置3における利用者の操作に応じてCPU2によって実行されるマウス割り込み処理を示すフローチャートである。
この図8に示すマウス割り込み処理は、入力装置3が備えるマウス3aが操作された際に、操作時のポインタ3bの座標に重なるセルを特定し、このセルに対応づけて設定されたオブジェクトIDを取得する処理であり、マウス3aの操作時にポインタ3bの座標位置を示す座標データが入力装置3から入力されると、このマウス割り込み処理が開始される。
【0056】
図8のマウス割り込み処理においては、まず、入力装置3から入力された座標データにより表される物理座標を特定し、特定された座標を割り込み情報テーブルD(図4)に「DotX」および「DotY」として設定する(ステップS41)。
【0057】
つづいて、CPU2は、画像情報テーブルBに設定されたオリジナルドットサイズ「ImageX」、「ImageY」を取得するとともに(ステップS42)、ステップS43で画像情報テーブルBに設定された表示拡大率「ZoomX」、「ZoomY」を取得し、同様に、ステップS44でセル分割数「DivX」、「DivY」を取得する。
【0058】
そして、上記の「DotX」、「DotY」、「ImageX」、「ImageY」、「ZoomX」、「ZoomY」、「DivX」および「DivY」をもとに、ステップS41で特定した座標に対応するセル位置を算出する(ステップS45)。
つまり、CPU2は、ステップS45で式(1)および式(2)に示す演算を実行し、セルの位置を示す「CellX」および「CellY」を算出する。
【0059】
CellX = int(DotX*DivX/(ImageX*ZoomX))+1 (1)
CellY = int(DotY*DivY/(ImageY*ZoomY))+1 (2)
【0060】
そして、CPU2は、ステップS45で算出された「CellX」および「CellY」で示されるセルについて、セル情報テーブルA(図2)を参照し、このセルに対応するオブジェクトIDを取得する(ステップS46)。さらに、CPU2は、ステップS46で取得したオブジェクトIDを割り込み情報テーブルDに設定し(ステップS47)、このオブジェクトIDをもとにしてユーザ割り込みハンドラを呼び出して(ステップS48)、マウス割り込み処理を終了する。
【0061】
図9は、CPU2によって実行されるユーザ割り込み制御処理を示すフローチャートであり、図8に示すマウス割り込み処理で呼び出されるユーザ割り込みハンドラを実行することで行われる。
【0062】
なお、ユーザ割り込みハンドラとは、マウス3aにおけるユーザの操作をもとに実行されるプログラムコードであり、マウス3aの操作に基づいて実行される上記マウス割り込み処理(図8)が終了する際にCPU2に読み込まれ、RAM4内のワークエリアに展開されて実行される。
【0063】
まず、CPU2は、記憶装置7内の割り込み情報テーブルDから、図8のマウス割り込み処理で設定されたオブジェクトIDを取得する(ステップS51)。そして、取得したオブジェクトIDをもとにオブジェクト情報テーブルCを参照して、当該オブジェクトIDに対応するイベント種別を取得する(ステップS52)。
【0064】
ここで、CPU2は、ステップS52で取得したイベント種別を判別し(ステップS53)、イベント種別が「音声」である場合には、ステップS54に移行して、オブジェクト情報テーブルCに設定されたファイル名のデータファイルを読み込み、このデータファイルに基づいて、音声出力処理を実行する(ステップS55)。
【0065】
また、ステップS53で、ステップS52で取得したイベント種別が「テキスト」である場合には、ステップS56に移行して、オブジェクト情報テーブルCに設定されたテキストデータを読み込み、このテキストデータの文字列を表示画面上に表示するテキスト表示処理を実行する(ステップS57)。
【0066】
そして、上記の音声出力処理あるいはテキスト表示処理が終了した後、ユーザ割り込み制御処理が終了する。
【0067】
図10〜図16は、上記の各処理において表示装置5によって表示される画面の一例を示す図である。
図10は、記憶装置7内の画像データベース(図示略)に格納された画像が一覧表示された画像一覧表示画面51の一例を示す図である。この図10に示す画像一覧表示画面51には、画像データベース(図示略)に格納された全ての画像が、例えばサムネイル画像等の縮小された形式でプレビュー表示される。なお、この画像一覧表示画面51において各画像が表示される際の表示倍率は、画像データベース(図示略)内に格納された画像の数に応じて決定される構成としても良いし、或いは、所定の縮小率に応じて各画像のオリジナルドットサイズをもとに決定されても良い。
【0068】
図10に示す画像一覧表示画面51には、写真1〜写真12までの12枚の画像が表示されている。利用者は入力装置3が備えるマウス3aを操作して、これら12枚の画像の内の所望の画像上にポインタ3bを移動させ、マウス3aのクリック操作を行うことにより、図7に示す画像閲覧処理を実行させて、当該画像を閲覧することができる。
【0069】
図11は、指定画像表示画面52の一例を示す図である。この指定画像表示画面52は、画像閲覧処理(図7)のステップS31で画像一覧表示画面51(図10)からマウス3aの操作により指定された画像、或いは、上述の画像・イベント情報登録処理(図6)のステップS11で新たにコンピュータシステム1に読み込まれた画像が、表示装置5の表示画面上にオリジナルドットサイズで表示された画面である。
【0070】
図12は、セル表示画面53の一例を示す図である。このセル表示画面53は、画像・イベント情報登録処理(図6)のステップS12において、指定画像表示画面52(図11)で表示画面上にオリジナルドットサイズで表示された画像上に罫線が表示され、表示中の画像が複数のセルに分割された画面である。
図12に示す例においては、表示中の画像が縦7個、横7個のセルに分割されている。なお、セル表示画面53で画像上に表示される罫線の数は、上述の画像・イベント情報登録処理(図6)のステップS13で、入力装置3からの指示入力によって適宜変更可能である。
【0071】
図13は、セル選択画面54の一例を示す図である。なお、図13に示すセル選択画面54では、図12のセル表示画面53における罫線の数が変更され、縦、横それぞれ11個のセルが並ぶように罫線が表示されている。
このセル選択画面54は、画像・イベント情報登録処理(図6)のステップS17で、図12の指定画像表示画面52に表示されたセルの中から特定のオブジェクトに重なるセルが選択された画面であり、選択されたセルが強調表示されている。図13に示す画面で、オブジェクトIDとして例えば「3」が入力されると、記憶装置7内のセル情報テーブルA(図2)において、強調表示されたセルのセル座標に対応づけてオブジェクトID「3」が設定される。
【0072】
そして、図14は、オブジェクトID表示画面55の一例を示す図である。このオブジェクトID表示画面55は、図13に示すセル選択画面54で強調表示されたセルにオブジェクトIDが設定され、画像上の各セルに表示された画面である。この図14に示す例では、表示中の画像において、左端の人物に重なるセルにはオブジェクトID「1」が設定され、中央の人物に重なるセルにはオブジェクトID「2」が設定され、右端の人物に重なるセルにはオブジェクトID「3」が設定されている。
【0073】
ここで、図15に示すオブジェクトID表示画面55が縮小して表示された例を図15に示す。
図15は、拡大率変更画面56の一例を示す図である。この拡大率変更画面56は、画像閲覧処理(図7)のステップS33〜ステップS36で表示中の画像の表示倍率を変更することによって、表示される画像のサイズが縮小された画面である。
【0074】
図15に示す例では、図14のオブジェクトID表示画面55が縮小されて表示されている。つまり、図11に示す指定画像表示画面52で表示中の画像を縮小して表示させ、その後、表示中の画像上に罫線を表示させたり、オブジェクトIDを設定する等の処理を行うことができる。
さらに、オブジェクトID表示画面55のように画像が縮小された場合にも、罫線の数は変更されないため、画像上に表示されるセルの数はオリジナルドットサイズで表示された画面と同じ数である。従って、画像が拡大あるいは縮小された場合であってもセルの数が変化しないので、複雑な座標変換のための計算を行う必要がなく、上述のマウス割り込み処理(図8)およびユーザ割り込み制御処理(図9)を、オリジナルドットサイズの表示時と同様に行うことができる。
【0075】
なお、記憶装置7内の画像情報テーブルB(図3)に、表示拡大率「ZoomX」、「ZoomY」として、オリジナルドットサイズよりも小さく表示する倍率が設定された画像は、常に図15に示すように縮小されて表示される。
【0076】
そして、図16は、イベント実行画面57の一例を示す図である。このイベント実行画面57は、マウス3aの操作に応じてマウス割り込み処理(図8)が実行され、続いてユーザ割り込み制御処理(図9)が実行されることにより、ポインタ3bにより指定された座標に位置するセルに対応づけてオブジェクト情報テーブルC(図4)に設定されたイベントが実行された際の画面を示す。
図16に示す例では、ポインタ3bが画面右方の人物像の上に位置し、このポインタ3bの付近に文字列が表示されている。即ち、上記のマウス割り込み処理(図8)およびユーザ割り込み制御処理(図9)が実行されることで、ポインタ3bが位置する座標に重なるセルのセル座標が求められ、求められたセルに対応づけてセル情報テーブルA(図2)に設定されたオブジェクトID「3」が取得される。そして、このオブジェクトID「3」に対応づけてオブジェクト情報テーブルC(図4)に設定されたイベントとして「田中です〜」という文字列が、画面上に表示される。
【0077】
以上のように、本発明を適用した実施の形態としてのコンピュータシステム1によれば、記憶装置7内の画像データベース(図示略)に、複数のオブジェクトを含む画像を新たに登録する際に、画像・イベント情報登録処理を実行して、この画像を表示画面上に表示し、示中の画像上に罫線を重ねて表示させて当該画像を複数のセルに分割するとともに、この画像に画像No.を付し、画像No.に対応づけて表示拡大率と、オリジナルドットサイズと、セル分割数とを画像情報テーブルBに設定する。さらに、各オブジェクトに重なるセルが範囲選択されると、選択されたセルに対応づけて当該オブジェクトのオブジェクトIDをセル情報テーブルAに設定する。また、各オブジェクトIDに、対応するイベントの種別とイベントデータとをオブジェクト情報テーブルCに設定する。そして、入力装置3が備えるマウス3aによって表示中の画像上の点が指定されると、マウス割り込み処理を実行して、指定された点の画像上における座標をもとに、当該座標に該当するセルを判別し、判別されたセルに対応づけられたオブジェクトIDを取得する。そして、割り込みハンドラを呼び出して、取得したオブジェクトIDに対応づけてオブジェクト情報テーブルCに設定されたイベントを実行させる。
【0078】
従って、マウス3aによって画像上の点が指定された際には、この点に対応するオブジェクトを比較的単純な演算処理によって速やかに特定することができるので、画像に含まれる各オブジェクトに対応づけられた動作を速やかに実行させることができる。これにより、上記従来の技術に比較してハードウェアの能力を向上させることなく処理の高速化を図ることができ、コストの増大を押さえることができる。また、処理時間の短縮によって利便性を向上させることができる。
【0079】
さらに、上記実施の形態としてのコンピュータシステム1によれば、画像データベース(図示略)内の画像が指定された際に、画像閲覧処理を実行して、指定された画像を画像情報テーブルBに設定されたサイズで表示画面上に表示させて、表示倍率の変更を指示する指示入力があった場合には、この指示入力内容に従って画像情報テーブルBの表示拡大率を変更して再度画像を表示し、この画像上におけるセルの数は変更しない。従って、画像の表示サイズが変更されても、セルのサイズが画像と同様に変更され、セルの数が変化しないので、セル情報テーブルAや画像情報テーブルBの設定内容、および、セルを判別するための演算式を特に変更する必要が無い。このため、マウス3aによって画像上の点が指定された際には、画像の表示サイズが変更される前と同様の処理によって該当するセルを判別してオブジェクトIDを取得し、対応するイベントを実行させることができ、処理の複雑化や低速化、効率の悪化等の事態は発生しないので、より一層の利便性の向上を図ることができる。
【0080】
そして、上記実施の形態としてのコンピュータシステム1によれば、どのようなオブジェクトで構成されている画像に対しても、罫線を重ねて表示することによってセルに分割し、上記の画像・イベント情報登録処理、マウス割り込み処理およびユーザー割り込み制御処理を実行することができるので、様々な画像に汎用的に対応することが可能である。また、画像上に表示される罫線の数を変更してセルの数を変更することができる。これにより、画像データベース(図示略)における画像の追加、削除、更新等の各種操作に影響されないので、より一層の利便性の向上を図ることができる。
【0081】
さらに、上記のマウス割り込み処理を、コンピュータシステム1のOS(Operation System)等の基本制御プログラムの機能として備える構成とすれば、マウス3aの操作に応じてオブジェクトIDが出力される一連の処理はOSの動作として実行される。この場合、アプリケーションプログラム等の上位プログラム側では、OSから出力されるオブジェクトIDを引数として処理を行えば良く、アプリケーションプログラムの処理が簡略化されるので、コンピュータシステム1をプラットホームとする各種アプリケーションプログラムの開発の省力化が期待できる。
【0082】
なお、上記実施の形態としてのコンピュータシステム1においては、画像・イベント情報登録処理において、画像上に、画面の縦方向および横方向に伸びる罫線を表示する構成としたが、本発明はこれに限定されるものではなく、斜めの格子を形成するように罫線を表示しても良いし、或いは、極座標形式で画像を複数のセルに分割しても良く、画像上における座標からセル座標を求めることが可能であればよく、その他細部の構成についても、本発明の趣旨を損なうことのない範囲内で適宜変更可能である。
【0083】
また、上記実施の形態としてのコンピュータシステム1においては、マウス3aによりクリック操作などの操作が行われ、入力装置3から操作信号が出力された際に上述のマウス割り込み処理を実行する構成としたが、一定時間毎にマウス3aの動作とポインタ3bの位置との検知を行い、マウス3aが移動されたことを検知した際にポインタ3bの座標位置を取得して、上記マウス割り込み処理を実行する構成としても良い。この場合、利用者による処理を簡略化することで、より一層の利便性の向上を図ることができる。
【0086】
【発明の効果】
請求項記載の発明の画像処理装置によれば、画像上の点が指定されると、指定された点を含む領域を判別し、この領域に対応する識別符号を出力する。このため、画像を構成する各オブジェクトのうちのどのオブジェクトに該当するかを示す識別符号を各領域に対応づけて記憶させておくことにより、指定された点に該当するオブジェクトを容易に検知することができる。また、異なる複数の画像を処理する場合であっても、各画像のオブジェクトが位置する座標の検出等の処理を行う必要がないので、効率化によってハードウェアの能力を極端に向上させることなく処理の高速化を実現し、コストの増大を抑制することができる。さらに、指定された点を含む領域の識別符号をもとに各種処理を行わせることも容易であり、画像上で指定された点の座標に応じて動作を行う各種装置を容易に実現することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態におけるコンピュータシステム1の内部構成を示すブロック図である。
【図2】図1に示す記憶装置7内に格納されるセル情報テーブルAの構成の一例を示す図である。
【図3】図1に示す記憶装置7内に格納される画像情報テーブルBの構成の一例を示す図である。
【図4】図1に示す記憶装置7内に格納されるオブジェクト情報テーブルCの構成の一例を示す図である。
【図5】図1に示す記憶装置7内に格納される割り込み情報テーブルDの構成の一例を示す図である。
【図6】図1に示すCPU2によって実行される画像・イベント情報登録処理を示すフローチャートである。
【図7】図1に示すCPU2によって実行される画像閲覧処理を示すフローチャートである。
【図8】図1に示すCPU2によって実行されるマウス割り込み処理を示すフローチャートである。
【図9】図1に示すCPU2によって実行されるユーザ割り込み制御処理を示すフローチャートである。
【図10】図1に示す表示装置5によって表示される画像一覧表示画面51の一例を示す図である。
【図11】図1に示す表示装置5によって表示される指定画像表示画面52の一例を示す図である。
【図12】図1に示す表示装置5によって表示されるセル表示画面53の一例を示す図である。
【図13】図1に示す表示装置5によって表示されるセル選択画面54の一例を示す図である。
【図14】図1に示す表示装置5によって表示されるオブジェクトID表示画面55の一例を示す図である。
【図15】図1に示す表示装置5によって表示される拡大率変更画面56の一例を示す図である。
【図16】図1に示す表示装置5によって表示されるイベント実行画面57の一例を示す図である。
【符号の説明】
1 コンピュータシステム
2 CPU(画像分割手段;判別手段;位置情報出力手段;処理手段;識別符号出力手段;制御手段;表示制御手段)
3 入力装置(指定手段)
3a マウス
3b ポインタ
4 RAM
5 表示装置(表示手段)
51 画像一覧表示画面
52 指定画像表示画面
53 セル表示画面
54 セル選択画面
55 オブジェクトID表示画面
56 拡大率変更画面
57 イベント実行画面
6 印刷装置
7 記憶装置(画像記憶手段;処理記憶手段;識別符号記憶手段)
8 記憶媒体
9 バス
A セル情報テーブル(識別符号記憶手段)
B 画像情報テーブル
C オブジェクト情報テーブル(処理記憶手段)
D 割り込み情報テーブル
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image processing apparatus that performs an operation according to an attribute of a specified point when a specific point on the image being displayed is specified.
[0002]
[Prior art]
Conventionally, some computer systems that perform image processing display an image on a display screen and determine an object such as a person shown in the image. Further, a predetermined operation is set in association with each object in the image, and when a point on the displayed image is designated by the pointing device, the object corresponding to the designated point is discriminated and discriminated. It was known to perform actions corresponding to objects.
[0003]
For example, when a person's picture is displayed on the display screen and a point on the person's image is specified with a mouse or the like, it is determined that the specified point is a point on the person's image, There were cases where operations such as displaying the name and message of the person were performed.
[0004]
[Problems to be solved by the invention]
However, in the processing as described above, there is a problem that processing for determining an object corresponding to a point designated by the pointing device is complicated, and efficient processing is difficult.
[0005]
That is, in the above conventional computer system, the area occupied by each object in the image is stored in advance based on the coordinates, and the area occupied by each object and the coordinates of the point designated by the pointing device are stored. And was performing arithmetic processing. For this reason, when processing a plurality of images, the area occupied by the object for each image is stored based on the coordinates, and an arithmetic expression for determining the object corresponding to the coordinates of the designated point Must be set for each image.
Further, even if the image has been set as described above, it has been necessary to set an arithmetic expression for determining the area occupied by each object again when the image is enlarged or reduced.
[0006]
For this reason, there is a problem that the amount of data and the amount of calculation processing handled by the computer system are large, and the processing takes time. In order to avoid this problem, conventionally, it has been necessary to improve the hardware capability of the computer system, resulting in an increase in cost.
[0007]
In order to solve the above problems, the present invention can easily and efficiently determine an object corresponding to a designated point when an arbitrary point on an image composed of a plurality of objects is designated. An object is to provide an image processing apparatus.
[0010]
[Means for Solving the Problems]
  Claim1In the described invention, an image storage unit that stores an image, a display unit that displays an image stored in the image storage unit, and an image displayed by the display unit is divided into a plurality of grids to form a plurality of images.cellImage dividing means for generating a plurality of images generated by the image dividing meansStorage means for storing a table in which the number of cells, the image, the coordinates of a plurality of cells, an identification code, and a plurality of pieces of processing information are associated;Designation means for designating a point on the image displayed by the display means;Obtaining the number of the plurality of cells with reference to the table;Coordinates on the image of the point specified by the specifying meansAnd the number of cellsContains the specified pointcellDiscriminating means for discriminating;Referring to the table,Discriminated by the discriminating meansCorresponds to a cellAn identification code output means for outputting an identification code;
Processing means for referring to the table and executing processing based on processing information corresponding to the identification code output by the identification code output means;It is characterized by having.
[0011]
  This claim1According to the described image processing apparatus, when a point on the image is designated, an area including the designated point is determined, and an identification code corresponding to the area is output. For this reason, it is possible to easily detect an object corresponding to a specified point by storing an identification code indicating which of the objects constituting the image corresponds to each area. Can do. Also, even when processing multiple different images, there is no need to perform processing such as detection of the coordinates where the object of each image is located, so processing can be performed without significantly improving hardware capabilities through efficiency. The increase in cost can be realized and the increase in cost can be suppressed. Furthermore, various processes can be easily performed based on the identification code of the area including the designated point, and various devices that operate according to the coordinates of the designated point on the image can be easily realized. Can do.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
[0013]
In the embodiment of the present invention, the CPU 2 executes steps S12 to S14 of the image / event information registration process (FIG. 6) to correspond to the image dividing means described in the claims, and similarly, the mouse interrupt process. By executing steps S41 to S45 in FIG. 8 (corresponding to the determining means and position information output means), executing the user interrupt control process (FIG. 9) corresponds to the processing means, and the mouse interrupt process (FIG. 8). Steps S46 to 47 are performed to correspond to the identification code output unit and the control unit, and steps S33 to S36 of the image browsing process (FIG. 7) are performed to correspond to the display control unit.
[0014]
Further, the storage device 7 corresponds to the image storage means described in the claims by storing an image database (not shown), and corresponds to the processing storage means by storing the object information table C (FIG. 4). By storing the information table A (FIG. 2), it corresponds to the identification code storage means.
[0015]
Further, the display device 5 corresponds to the display means described in the claims, and the input device 3 corresponds to the designation means described in the claims. In addition, a cell to be described later corresponds to a region described in claims, and an object ID corresponds to an identification code described in claims.
[0016]
First, the configuration will be described.
[0017]
FIG. 1 is a block diagram showing a schematic configuration of a computer system 1 as an embodiment to which the present invention is applied. As shown in FIG. 1, a computer system 1 includes a central processing unit (CPU) 2, an input device 3, a random access memory (RAM) 4, a display device 5, a printing device 6, a storage device 7, and a storage device 7. The storage medium 8 is configured, and each unit excluding the storage medium 8 is connected by a bus 9.
[0018]
The CPU 2 reads various programs stored in the storage device 7 and develops them in a memory area provided in the RAM 4, and executes control of each part of the computer system 1. That is, the CPU 2 executes a basic control program stored in the storage device 7 and executes an initial control process for shifting each part of the computer system 1 to an initial state immediately after the computer system 1 is turned on. Display information for displaying a screen related to various processes being executed by the system 1 is generated and output to the display device 5 to display various images on the display screen. Further, when the CPU 2 is instructed to execute printing by inputting an instruction from the input device 3, the CPU 2 generates print information for printing a document or an image specified by the instruction and outputs the print information to the printing device 6. Various other control processes are executed such as
[0019]
Further, the CPU 2 reads and executes the image / event information registration processing program stored in the storage device 7 in response to an instruction input from the input device 3, reads the designated image data, and based on the image data. The image is displayed on the display screen of the display device 5. A plurality of cells are displayed on the image by displaying a ruled line that divides the image being displayed into a predetermined number in the vertical direction and the horizontal direction on the image. Also, the upper left corner of the image being displayed is set as the origin, the X axis is set in the horizontal direction based on this origin, and the Y axis is set in the vertical direction.
[0020]
Subsequently, the CPU 2 adds the image data relating to the image being displayed to an image database (not shown) in the storage device 7, and stores the number of vertical and horizontal cells displayed on the image in the storage device. 7 is set in the image information table B (FIG. 3) stored in FIG. Further, for each cell on the displayed image, when an object ID indicating a corresponding object is designated by an instruction input from the input device 3, a cell in which the object ID corresponding to each cell is stored in the storage device 7 is stored. Information table A (FIG. 2) is set. Then, the CPU 2 sets a file indicating the type of event to be executed corresponding to each object ID and the contents thereof in the object information table C (FIG. 4) stored in the storage device 7.
[0021]
Further, when any one of images stored in an image database (not shown) in the storage device 7 is designated, the CPU 2 reads the image browsing processing program from the storage device 7 and executes it. The read image is read out from the image database (not shown) and displayed on the display screen, and when the enlargement magnification at the time of display is changed, the changed enlargement ratio is set in the image information table B (FIG. 3). . When the mouse 3a included in the input device 3 is operated while an image is displayed on the display screen, the mouse interrupt processing program is executed, and the image is based on the coordinates specified by the operation of the mouse 3a. By referring to the information table B, the cell at the position corresponding to the designated coordinates is determined, the object ID set in the determined cell is obtained, and this object ID is stored in the interrupt information table D in the storage device 7. Set to (Fig. 4). Subsequently, the CPU 2 reads and executes the user interrupt handler stored in the storage device 7 and executes an event corresponding to the object ID acquired from the interrupt information table D by referring to the object information table C.
[0022]
Note that an object refers to an object constituting an image, such as each subject in a photograph, a background, a building, a person, or an animal in an illustration.
[0023]
The input device 3 includes a keyboard having numeric keys, character keys, and various function keys. The input device 3 generates a press signal corresponding to the key pressed when each key is pressed and outputs the generated press signal to the CPU 2. The input device 3 includes a mouse 3a as a pointing device. The mouse 3a moves the pointer 3b displayed on the display screen of the display device 5 on the display screen to designate the coordinates where the pointer 3b is located. The input device 3 outputs coordinate data indicating the coordinates of the pointer 3b on the display screen to the CPU 2 together with an operation signal when the mouse 3a is operated such as a click operation.
[0024]
The RAM 4 forms a memory area that temporarily stores various programs processed by the CPU 2 and data related to the processing.
[0025]
The display device 5 includes a display screen composed of a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like. The display screen 5 is driven and controlled based on display information input from the CPU 2 to display images and the like. Execute various displays.
[0026]
The printing apparatus 6 includes a printer such as a laser printer, an ink jet printer, or a sublimation printer. The printer 6 drives and controls the printer based on print information input from the CPU 2, thereby processing various types of processing performed by the computer system 1. Print out documents and images.
[0027]
The storage device 7 includes a storage medium 8 in which programs, data, and the like are stored. The storage medium 8 is configured by a magnetic or optical recording medium or a semiconductor memory. This storage medium 8 is fixed to the storage device 7 or detachably mounted. In the storage device 7, various application programs such as a basic control processing program executed by the CPU 2, an image / event information registration processing program, an image browsing processing program, a mouse interrupt processing program, and program codes such as a user interrupt handler are stored. Stored. In the storage device 7, various data necessary for executing the various application programs by the CPU 2 are stored in the cell information table A, the image information table B, the object information table C, and the interrupt information table D. The Further, the storage medium 8 stores an image database (not shown) in which a plurality of image data is stored, and a memory for storing image data not registered in the image database (not shown). It is also possible to provide a region.
[0028]
The data stored in the storage medium 8 may be received from other devices connected via a communication line or the like and stored, and further connected via a communication line or the like. A storage device including the storage medium 8 may be provided on the other device side, and the program and data stored in the storage medium 16 may be used via a communication line.
[0029]
Here, various tables stored in the storage device 7 will be described.
[0030]
FIG. 2 is a diagram showing the configuration of the cell information table A stored in the storage device 7. In the cell information table A, the position of each cell in the X-axis (horizontal) direction and Y-axis (vertical) direction when the upper left corner of the image being displayed is the origin, and image / event information registration processing (described later) The object ID specified in FIG. 6) is set in association with it.
[0031]
For example, the cell whose “X position” is “1” and “Y position” is “4” is the first position in the X-axis direction from the upper left corner of the image being displayed and the fourth cell in the Y-axis direction. A cell located at cell coordinates. If the object ID set in association with this cell is “1”, the CPU 2 outputs “1” as the object ID when the coordinate position corresponding to this cell is designated by the mouse 3a. .
[0032]
FIG. 3 is a diagram showing the configuration of the image information table B stored in the storage device 7. The image information table B includes an image No. of each image stored in an image database (not shown). In association with (number), the enlargement ratio when displaying each image is set as “display enlargement ratio (ZoomX, ZoomY)”. Among these, “ZoomX” indicates an enlargement ratio in the X-axis direction, and “ZoomY” indicates an enlargement ratio in the Y-axis direction. In the image information table B, “original dot size (ImageX, ImageY)” indicating the size when the image data relating to each image is displayed as it is in dot units is set. “ImageX” indicates the number of dots in the X-axis direction, and “ImageY” indicates the number of dots in the Y-axis direction. Furthermore, in the image information table B, “cell division number (DivX, DivY)” indicating the number of cells when the image is divided into cells by ruled lines displayed on the image is set. Here, “DivX” indicates the number of cells in the X-axis direction, and “DivY” indicates the number of cells in the Y-axis direction.
[0033]
For example, in “Image No. 2” in FIG. 3, “1” is set for “ZoomX” and “1” is set for “ZoomY” as the display magnification ratio. As the “original dot size”, “300” is set in “ImageX”, and “200” is set in “ImageY”. Therefore, the image data stored in the image database (not shown) as “Image No. 2” is an image having the original size of “300 dots wide × 200 dots long” on the display screen of the display device 5. Is displayed at a magnification of “1 ×” in both the vertical and horizontal directions. Also, since “7” is set in “DivX” and “7” is set in “DivY” as the number of cell divisions, when this “No. 2” image is displayed on the display screen, Ruled lines are displayed so that seven cells are arranged in the X-axis direction and seven cells are arranged in the Y-axis direction. The “original dot size” may be expressed by the number of pixels.
[0034]
FIG. 4 is a diagram showing the configuration of the object information table C stored in the storage device 7. In the object information table C, a file indicating the type of event set for each object ID and its contents is set. Specifically, “text” is set as “event type” in the object ID in which text (character string) is displayed as the corresponding event, and “event data” indicating the content is displayed at the time of event execution. Is set. When a sound is output as an event corresponding to the object ID, “sound” is set in “event type”, and a file name of the sound data is set in “event data”.
[0035]
For example, the “event type” of the event set in association with the object whose “object ID” is “1” in FIG. 4 is “text”, and “event data” is set to “is Takano ~”. Yes. In other words, the event corresponding to the object whose “object ID” is “1” is a display of a character string “I am Takano ~”.
Similarly, in FIG. 4, the “event type” corresponding to the object whose “object ID” is “2” is “voice”, and “nakamura.wav” is set as “event data”. Therefore, when an event corresponding to an object whose “object ID” is “2” is executed, a sound is output based on the sound data stored in the data file ““ nakamura.wav ””.
The data file “nakamura.wav” is an audio data file that is saved in the Wav format by digitizing audio data using the PCM (Pulse Code Modulation) method, but the present invention is not limited to this. Instead, for example, an audio data file in another format such as an audio data file in MIDI (Musical Instruments Digital Interface) format may be used.
[0036]
FIG. 5 is a diagram showing a configuration of the interrupt information table D stored in the storage device 7. In the interrupt information table D, when the mouse 3a is operated, the coordinates (DotX, DotY) on the image of the pointer 3b, the position of the cell corresponding to the coordinates (CellX, CellY), and the corresponding cell The attached object ID is set.
Here, “DotX” indicates the X coordinate on the displayed image, and “DotY” indicates the Y coordinate on the image. “CellX” indicates the position in the X-axis direction of the cell corresponding to the coordinates of the pointer 3b, and “CellY” indicates the position in the Y-axis direction.
[0037]
In the example shown in FIG. 5, since “DotX” is set to “330” and “DotY” is set to “87”, the coordinate position of the pointer 3b when operating the mouse 3a with the upper left corner of the displayed image as the origin Is (330, 87). Since “CellX” and “CellY” are set to “5” and “3”, respectively, the coordinate position of (330, 87) is the fifth in the X-axis direction and 3 in the Y-axis direction. The th cell will be located.
[0038]
Next, operations in the computer system 1 configured as described above will be described with reference to FIGS.
[0039]
FIG. 6 is a flowchart showing an image / event information registration process executed by the CPU 2. The image / event information registration process shown in FIG. 6 is a process of registering a new image in an image database (not shown) in the storage device 7 and setting an event to be executed in association with this image. . Note that the image / event information registration process shown in FIG. 6 may be executed for the purpose of setting new event information or redoing settings for an image already registered in the image database (not shown). Is possible.
[0040]
In the image / event information registration process of FIG. 6, the CPU 2 reads the image data of the image designated as the processing target from the outside of the computer system 1 or the storage device 7, and the original number of original dots indicated by the image data. An image is displayed on the display screen of the display device 5 in the dot size (step S11).
[0041]
Subsequently, a ruled line for dividing the displayed image into a predetermined number of cells is displayed so as to overlap the displayed image (step S12). Note that the number of ruled lines displayed here is a preset specified value.
When an instruction to change the number of vertical and horizontal cells is input from the input device 3 after the ruled lines are displayed in step S12, the number of ruled lines being displayed according to the input instructions. And the ruled line is displayed again (step S13).
[0042]
Next, it is determined whether or not the adjustment of the number of cells in the image being displayed has been completed (step S14). If the adjustment has not been completed, the process returns to step S13. If the adjustment has been completed, the process returns to step S15. Transition.
[0043]
In step S15, the image information table B (FIG. 3) displays the image No. of the image being displayed. Are newly added and set (step S15). The number of cells into which the image is divided is set as “DivX” and “DivY” (step S16). In step S16, the added image No. The original dot size indicated by the image data of this image is set as “ImageX” and “ImageY”.
[0044]
Subsequently, associating each object shown in this image with each cell is executed for the image being displayed.
That is, a cell that overlaps one object among objects such as a person shown in the displayed photographic image is designated as a range by an instruction input from the input device 3 (step S17), and is associated with the designated cell. An object ID is input (step S18). The CPU 2 sets the input object ID in the cell information table A (FIG. 2) in association with the range selected cell (step S19), and proceeds to step S20.
[0045]
Here, the CPU 2 determines whether or not the object ID set in step S19 is a new object ID set for the image for the first time (step S20), and this object ID has already been set. In this case, the process proceeds to step S26 described later. If the object ID is a new object ID, the object ID input in step S18 is set in the object information table C (FIG. 4) (step S21).
[0046]
Subsequently, an event corresponding to the new object ID set in step S21 is registered.
First, when the event type corresponding to the object ID newly set in step S21 is selected and input (step S22), and the output of “voice” is selected as the event, the process proceeds to step S23. In step S23, the file name of the data file in which the audio data to be output is stored is input. In subsequent step S24, the “event type” of the object information table C is set to “audio” in association with the new object ID. Is set. Further, the data file name input in step S23 is set in the object information table C in association with the object ID (step S25).
[0047]
In step S26, it is determined whether or not there is an object to be set subsequently in the image being displayed. If setting for another object is performed, the process returns to step S17 to complete the setting for the object. If it is determined, the process is terminated as it is.
[0048]
On the other hand, when “text” display is selected and designated as an event corresponding to the object in step S22, the process proceeds to step S27, and a character string to be displayed is input from the input device 3.
[0049]
Subsequently, “text” is set as the “event type” corresponding to the object in the object information table C (step S28), and further, the character string input in step S27 is set in “event data”. (Step S29), the process proceeds to Step S26. When the setting for the object is completed in step S26, the image / event registration process is terminated.
[0050]
FIG. 7 is a flowchart showing image browsing processing executed by the CPU 2 in the computer system 1 according to the embodiment of the present invention.
In the image browsing process shown in FIG. 7, a designated image is read out from images stored in an image database (not shown) in the storage device 7 and displayed according to the setting contents of the image information table B (FIG. 3). This is processing to be displayed on the device 5.
[0051]
First, when an image is selected and designated from images stored in an image database (not shown) in the storage device 7 by an instruction input from the input device 3 (step S31), the CPU 2 selects and designates the selected image. And the image information table B is referred to, and the image selected and designated with the original dot size set in the image information table B is displayed on the display screen (step S32).
[0052]
Subsequently, the CPU 2 determines whether or not there is an instruction input for changing the enlargement ratio of the image being displayed (step S33), and when an instruction to change the enlargement ratio is given, the process proceeds to step S34.
[0053]
In step S34, the display magnification of the image being displayed is designated by an instruction input from the input device 3. Then, the CPU 2 sets the enlargement ratio designated in step S34 as “ZoomX” and “ZoomY” in the image information table B (step S35), and the displayed image is again displayed on the display device 5 according to the new enlargement ratio. Display (step S36), and return to step S33. Here, when the display enlargement ratio is changed again, the processes in steps S34 to S36 are executed again.
[0054]
On the other hand, if an instruction to change the enlargement ratio has not been input in step S33, the process proceeds to step S37 to guide the user whether or not to view the next image. When an instruction to view the image is input (step S37; Yes), the process returns to step S31.
If the input to view the next image has not been made (step S33; No), the process proceeds to step S38 to guide the input as to whether or not to end the image browsing process and not to end. Is entered, the process proceeds to step S33. Further, the process is ended in accordance with an input to end the image browsing process.
[0055]
FIG. 8 is a flowchart showing mouse interrupt processing executed by the CPU 2 in response to a user operation on the input device 3.
In the mouse interrupt processing shown in FIG. 8, when the mouse 3a included in the input device 3 is operated, a cell overlapping the coordinates of the pointer 3b at the time of operation is specified, and the object ID set in association with this cell is specified. This is an acquisition process. When coordinate data indicating the coordinate position of the pointer 3b is input from the input device 3 when the mouse 3a is operated, the mouse interrupt process is started.
[0056]
In the mouse interrupt process of FIG. 8, first, physical coordinates represented by the coordinate data input from the input device 3 are specified, and the specified coordinates are stored in the interrupt information table D (FIG. 4) as “DotX” and “DotY”. "(Step S41).
[0057]
Subsequently, the CPU 2 obtains the original dot sizes “ImageX” and “ImageY” set in the image information table B (step S42), and the display enlargement ratio “ZoomX” set in the image information table B in step S43. , “ZoomY” is acquired, and similarly, the cell division numbers “DivX” and “DivY” are acquired in step S44.
[0058]
Then, based on the above “DotX”, “DotY”, “ImageX”, “ImageY”, “ZoomX”, “ZoomY”, “DivX”, and “DivY”, the cell corresponding to the coordinates specified in step S41 The position is calculated (step S45).
That is, the CPU 2 executes the calculations shown in the equations (1) and (2) in step S45, and calculates “CellX” and “CellY” indicating the cell positions.
[0059]
CellX = int (DotX * DivX / (ImageX * ZoomX)) + 1 (1)
CellY = int (DotY * DivY / (ImageY * ZoomY)) + 1 (2)
[0060]
Then, the CPU 2 refers to the cell information table A (FIG. 2) for the cell indicated by “CellX” and “CellY” calculated in step S45, and acquires the object ID corresponding to this cell (step S46). . Further, the CPU 2 sets the object ID acquired in step S46 in the interrupt information table D (step S47), calls a user interrupt handler based on this object ID (step S48), and ends the mouse interrupt process. .
[0061]
FIG. 9 is a flowchart showing a user interrupt control process executed by the CPU 2, and is performed by executing a user interrupt handler called in the mouse interrupt process shown in FIG.
[0062]
The user interrupt handler is program code that is executed based on the user's operation on the mouse 3a. When the mouse interrupt process (FIG. 8) that is executed based on the operation of the mouse 3a ends, the CPU 2 Are loaded into the work area in the RAM 4 and executed.
[0063]
First, the CPU 2 acquires the object ID set in the mouse interrupt process of FIG. 8 from the interrupt information table D in the storage device 7 (step S51). Then, the event type corresponding to the object ID is acquired by referring to the object information table C based on the acquired object ID (step S52).
[0064]
Here, the CPU 2 determines the event type acquired in step S52 (step S53). If the event type is “speech”, the CPU 2 proceeds to step S54 and sets the file name set in the object information table C. And the audio output process is executed based on the data file (step S55).
[0065]
If the event type acquired in step S52 is “text” in step S53, the process proceeds to step S56, the text data set in the object information table C is read, and the character string of this text data is read. Text display processing to be displayed on the display screen is executed (step S57).
[0066]
Then, after the voice output process or the text display process is finished, the user interrupt control process is finished.
[0067]
10-16 is a figure which shows an example of the screen displayed by the display apparatus 5 in each said process.
FIG. 10 is a diagram illustrating an example of an image list display screen 51 on which images stored in an image database (not shown) in the storage device 7 are displayed as a list. On the image list display screen 51 shown in FIG. 10, all images stored in an image database (not shown) are preview-displayed in a reduced format such as thumbnail images. The display magnification when each image is displayed on the image list display screen 51 may be determined according to the number of images stored in an image database (not shown), or may be a predetermined value. It may be determined based on the original dot size of each image according to the reduction ratio.
[0068]
On the image list display screen 51 shown in FIG. 10, twelve images from photo 1 to photo 12 are displayed. The user operates the mouse 3a included in the input device 3, moves the pointer 3b onto a desired image among these 12 images, and clicks the mouse 3a, thereby viewing the image shown in FIG. The image can be browsed by executing the process.
[0069]
FIG. 11 is a diagram illustrating an example of the designated image display screen 52. The designated image display screen 52 is the image designated by the operation of the mouse 3a from the image list display screen 51 (FIG. 10) in step S31 of the image browsing process (FIG. 7) or the above-described image / event information registration process ( The image newly read into the computer system 1 in step S11 of FIG. 6) is a screen displayed on the display screen of the display device 5 in the original dot size.
[0070]
FIG. 12 is a diagram illustrating an example of the cell display screen 53. In the cell display screen 53, ruled lines are displayed on the image displayed in the original dot size on the display screen in the designated image display screen 52 (FIG. 11) in step S12 of the image / event information registration process (FIG. 6). This is a screen in which the displayed image is divided into a plurality of cells.
In the example shown in FIG. 12, the image being displayed is divided into seven vertical and seven horizontal cells. It should be noted that the number of ruled lines displayed on the image on the cell display screen 53 can be appropriately changed by an instruction input from the input device 3 in step S13 of the image / event information registration process (FIG. 6).
[0071]
FIG. 13 is a diagram illustrating an example of the cell selection screen 54. In the cell selection screen 54 shown in FIG. 13, the number of ruled lines in the cell display screen 53 in FIG. 12 is changed, and the ruled lines are displayed so that eleven cells are arranged in the vertical and horizontal directions.
The cell selection screen 54 is a screen in which a cell overlapping a specific object is selected from the cells displayed on the designated image display screen 52 of FIG. 12 in step S17 of the image / event information registration process (FIG. 6). Yes, the selected cell is highlighted. When, for example, “3” is input as the object ID on the screen shown in FIG. 13, the object ID “" is associated with the cell coordinates of the highlighted cell in the cell information table A (FIG. 2) in the storage device 7. 3 "is set.
[0072]
FIG. 14 is a diagram illustrating an example of the object ID display screen 55. The object ID display screen 55 is a screen in which an object ID is set to a cell highlighted on the cell selection screen 54 shown in FIG. 13 and displayed in each cell on the image. In the example shown in FIG. 14, in the displayed image, the object ID “1” is set to the cell that overlaps the person at the left end, the object ID “2” is set to the cell that overlaps the person at the center, and the right end. An object ID “3” is set in a cell overlapping a person.
[0073]
Here, FIG. 15 shows an example in which the object ID display screen 55 shown in FIG. 15 is reduced and displayed.
FIG. 15 is a diagram illustrating an example of the enlargement rate change screen 56. The enlargement ratio change screen 56 is a screen in which the size of the displayed image is reduced by changing the display magnification of the image being displayed in steps S33 to S36 of the image browsing process (FIG. 7).
[0074]
In the example shown in FIG. 15, the object ID display screen 55 of FIG. 14 is displayed in a reduced size. That is, it is possible to perform processing such as reducing the displayed image on the designated image display screen 52 shown in FIG. 11 and then displaying a ruled line on the displayed image or setting an object ID. .
Further, even when the image is reduced as in the object ID display screen 55, the number of ruled lines is not changed, so the number of cells displayed on the image is the same as the screen displayed in the original dot size. . Accordingly, since the number of cells does not change even when the image is enlarged or reduced, it is not necessary to perform calculations for complicated coordinate conversion, and the above-described mouse interrupt processing (FIG. 8) and user interrupt control processing are performed. (FIG. 9) can be performed in the same manner as when displaying the original dot size.
[0075]
Note that an image in which the display magnifications “ZoomX” and “ZoomY” are set in the image information table B (FIG. 3) in the storage device 7 so as to display smaller than the original dot size is always shown in FIG. Is reduced and displayed.
[0076]
FIG. 16 is a diagram illustrating an example of the event execution screen 57. In this event execution screen 57, mouse interrupt processing (FIG. 8) is executed in accordance with the operation of the mouse 3a, and then user interrupt control processing (FIG. 9) is executed, so that the coordinates designated by the pointer 3b are obtained. FIG. 6 shows a screen when an event set in the object information table C (FIG. 4) is executed in association with a cell located.
In the example shown in FIG. 16, the pointer 3b is positioned on the person image on the right side of the screen, and a character string is displayed in the vicinity of the pointer 3b. That is, by executing the above-described mouse interrupt processing (FIG. 8) and user interrupt control processing (FIG. 9), the cell coordinates of the cell that overlaps the coordinates where the pointer 3b is located are obtained and associated with the obtained cells. Thus, the object ID “3” set in the cell information table A (FIG. 2) is acquired. Then, a character string “I am Tanaka” is displayed on the screen as an event set in the object information table C (FIG. 4) in association with the object ID “3”.
[0077]
As described above, according to the computer system 1 as an embodiment to which the present invention is applied, when a new image including a plurality of objects is registered in the image database (not shown) in the storage device 7, the image Event information registration processing is executed, this image is displayed on the display screen, ruled lines are superimposed on the image being displayed, and the image is divided into a plurality of cells. And image No. The display magnification ratio, original dot size, and cell division number are set in the image information table B in association with. Further, when a range of cells overlapping each object is selected, the object ID of the object is set in the cell information table A in association with the selected cell. In addition, an event type and event data corresponding to each object ID are set in the object information table C. When a point on the image being displayed is designated by the mouse 3a included in the input device 3, a mouse interruption process is executed, and the corresponding point is determined based on the coordinates on the image of the designated point. A cell is discriminated, and an object ID associated with the discriminated cell is acquired. Then, an interrupt handler is called to execute an event set in the object information table C in association with the acquired object ID.
[0078]
Therefore, when a point on the image is designated by the mouse 3a, an object corresponding to this point can be quickly identified by a relatively simple calculation process, and therefore, it is associated with each object included in the image. Can be executed quickly. As a result, the processing speed can be increased without improving the hardware capability as compared with the above-described conventional technology, and the increase in cost can be suppressed. Further, convenience can be improved by shortening the processing time.
[0079]
Further, according to the computer system 1 as the above embodiment, when an image in an image database (not shown) is designated, an image browsing process is executed and the designated image is set in the image information table B. When there is an instruction input for instructing the display magnification to be changed and the display magnification to be changed, the display enlargement ratio of the image information table B is changed according to the instruction input contents, and the image is displayed again. The number of cells on this image is not changed. Therefore, even if the display size of the image is changed, the cell size is changed in the same manner as the image, and the number of cells does not change. Therefore, the setting contents of the cell information table A and the image information table B and the cell are discriminated. There is no need to change the arithmetic expression for this. For this reason, when a point on the image is designated by the mouse 3a, the corresponding cell is determined by the same process as before the display size of the image is changed, the object ID is obtained, and the corresponding event is executed. Since there are no situations such as complicated processing, low speed, and poor efficiency, the convenience can be further improved.
[0080]
According to the computer system 1 as the above-described embodiment, an image composed of any object is divided into cells by displaying ruled lines in an overlapping manner, and the image / event information registration described above is performed. Since processing, mouse interrupt processing, and user interrupt control processing can be executed, it is possible to deal with various images in a general manner. In addition, the number of cells can be changed by changing the number of ruled lines displayed on the image. Thereby, since it is not influenced by various operations, such as addition, deletion, and update of an image in an image database (not shown), it is possible to further improve convenience.
[0081]
Further, if the above-described mouse interrupt processing is configured as a function of a basic control program such as an OS (Operation System) of the computer system 1, a series of processes in which an object ID is output in accordance with the operation of the mouse 3a is performed by the OS. It is executed as an operation. In this case, the host program side such as an application program may perform processing using the object ID output from the OS as an argument, and the processing of the application program is simplified. Therefore, various application programs using the computer system 1 as a platform are provided. Labor saving in development can be expected.
[0082]
In the computer system 1 as the above embodiment, in the image / event information registration process, ruled lines extending in the vertical and horizontal directions of the screen are displayed on the image. However, the present invention is not limited to this. The ruled lines may be displayed so as to form an oblique grid, or the image may be divided into a plurality of cells in a polar coordinate format, and the cell coordinates are obtained from the coordinates on the image. However, other detailed configurations can be changed as appropriate without departing from the spirit of the present invention.
[0083]
In the computer system 1 as the above embodiment, the mouse interrupt process is performed when an operation signal such as a click operation is performed by the mouse 3a and an operation signal is output from the input device 3. A configuration in which the operation of the mouse 3a and the position of the pointer 3b are detected at regular intervals, the coordinate position of the pointer 3b is acquired when the movement of the mouse 3a is detected, and the mouse interrupt process is executed. It is also good. In this case, it is possible to further improve convenience by simplifying the processing by the user.
[0086]
【The invention's effect】
  Claim1According to the image processing apparatus of the described invention, when a point on the image is designated, an area including the designated point is determined, and an identification code corresponding to this area is output. For this reason, it is possible to easily detect an object corresponding to a specified point by storing an identification code indicating which of the objects constituting the image corresponds to each area. Can do. Also, even when processing multiple different images, there is no need to perform processing such as detection of the coordinates where the object of each image is located, so processing can be performed without significantly improving hardware capabilities through efficiency. The increase in cost can be realized and the increase in cost can be suppressed. Furthermore, various processes can be easily performed based on the identification code of the area including the designated point, and various devices that operate according to the coordinates of the designated point on the image can be easily realized. Can do.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an internal configuration of a computer system 1 according to an embodiment of the present invention.
FIG. 2 is a diagram showing an example of the configuration of a cell information table A stored in the storage device 7 shown in FIG.
3 is a diagram showing an example of the configuration of an image information table B stored in the storage device 7 shown in FIG. 1. FIG.
4 is a diagram showing an example of the configuration of an object information table C stored in the storage device 7 shown in FIG. 1. FIG.
5 is a diagram showing an example of a configuration of an interrupt information table D stored in the storage device 7 shown in FIG. 1. FIG.
6 is a flowchart showing image / event information registration processing executed by CPU 2 shown in FIG. 1. FIG.
7 is a flowchart showing image browsing processing executed by a CPU 2 shown in FIG.
FIG. 8 is a flowchart showing mouse interrupt processing executed by the CPU 2 shown in FIG.
FIG. 9 is a flowchart showing user interrupt control processing executed by CPU 2 shown in FIG. 1;
10 is a diagram showing an example of an image list display screen 51 displayed by the display device 5 shown in FIG.
11 is a diagram showing an example of a designated image display screen 52 displayed by the display device 5 shown in FIG.
12 is a diagram showing an example of a cell display screen 53 displayed by the display device 5 shown in FIG.
13 is a diagram showing an example of a cell selection screen 54 displayed by the display device 5 shown in FIG.
14 is a diagram showing an example of an object ID display screen 55 displayed by the display device 5 shown in FIG.
15 is a diagram showing an example of an enlargement ratio change screen 56 displayed by the display device 5 shown in FIG.
16 is a diagram showing an example of an event execution screen 57 displayed by the display device 5 shown in FIG.
[Explanation of symbols]
1 Computer system
2 CPU (image dividing means; determination means; position information output means; processing means; identification code output means; control means; display control means)
3 input devices (specifying means)
3a mouse
3b pointer
4 RAM
5. Display device (display means)
51 Image list display screen
52 Designated image display screen
53 Cell display screen
54 Cell selection screen
55 Object ID display screen
56 Enlargement rate change screen
57 Event execution screen
6 Printing device
7. Storage device (image storage means; processing storage means; identification code storage means)
8 storage media
9 Bus
A Cell information table (identification code storage means)
B Image information table
C Object information table (processing storage means)
D Interrupt information table

Claims (4)

画像を記憶する画像記憶手段と、
この画像記憶手段に記憶された画像を表示する表示手段と、
この表示手段により表示された画像を格子状に分割して複数のセルを生成する画像分割手段と、
前記画像分割手段により生成された複数のセルの数と前記画像及び複数のセルの座標と識別符号と複数の処理情報とが対応付けられるテーブルを記憶する記憶手段と、
前記表示手段により表示された画像上の点を指定する指定手段と、
前記テーブルを参照して前記複数のセルの数を取得し、前記指定手段により指定された点の前記画像上における座標と当該複数のセルの数とに基づいて前記指定された点を含むセルを判別する判別手段と、
前記テーブルを参照し、前記判別手段により判別されたセルに対応する識別符号を出力する識別符号出力手段と、
前記テーブルを参照し、前記識別符号出力手段により出力された識別符号に対応する処理情報に基づいて処理を実行する処理手段と、
を備えることを特徴とする画像処理装置。
Image storage means for storing images;
Display means for displaying an image stored in the image storage means;
An image dividing means for dividing the image displayed by the display means into a grid and generating a plurality of cells ;
Storage means for storing a table in which the number of the plurality of cells generated by the image dividing unit, the coordinates of the image and the plurality of cells, an identification code, and a plurality of pieces of processing information are associated with each other;
Designation means for designating a point on the image displayed by the display means;
By referring to the table to obtain the number of the plurality of cells, a cell that contains a point above specified based on the number of coordinates and the plurality of cells on the image of the point specified by the specifying means Discriminating means for discriminating;
An identification code output means for referring to the table and outputting an identification code corresponding to the cell determined by the determination means;
Processing means for referring to the table and executing processing based on processing information corresponding to the identification code output by the identification code output means;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、The image processing apparatus according to claim 1.
前記処理手段が実行する前記処理は、音声の出力又は前記表示手段上へのテキストの出力であることを特徴とする画像処理装置。The image processing apparatus according to claim 1, wherein the processing executed by the processing means is output of a voice or output of text on the display means.
画像を記憶する画像記憶手段と、
この画像記憶手段に記憶された画像を表示する表示手段と、
前記画像記憶手段に記憶された画像を所定の表示倍率で拡大または縮小して前記表示手段に表示させる表示制御手段と
前記表示手段により表示された画像を格子状に分割して複数のセルを生成する画像分割手段と、
前記画像分割手段により生成された複数のセルの数、前記画像を前記表示手段に表示する際の基準となる基準ドットサイズ、前記表示制御手段による前記画像の拡大又は縮小表示倍率及び前記画像とが対応づけられ、前記複数のセルの座標と識別符号及びこの識別符号と複数の処理情報とが対応づけられるテーブルを記憶する記憶手段と、
前記表示制御手段により拡大または縮小表示された画像上の点を指定する指定手段と、
前記テーブルを参照して前記複数のセルの数と、基準ドットサイズと、拡大又は縮小表示倍率とを取得し、前記指定手段により指定された点の前記画像上における座標と、当該複数のセルの数と、当該基準ドットサイズと、当該拡大又は縮小表示倍率とに基づいて前記指定された点を含むセルを判別する判別手段と、
前記テーブルを参照し、前記判別手段により判別された領域に対応する識別符号を出力する識別符号出力手段と、
前記識別符号出力手段により識別符号が出力されると、前記テーブルを参照し、当該識別符号に対応する処理情報に基づいて所定の処理を実行する制御手段と、
を備えることを特徴とする画像処理装置。
Image storage means for storing images;
Display means for displaying an image stored in the image storage means;
Display control means for enlarging or reducing the image stored in the image storage means at a predetermined display magnification and displaying on the display means;
Image dividing means for dividing the image displayed by the display means into a grid and generating a plurality of cells;
The number of the plurality of cells generated by the image dividing means, the reference dot size as a reference when displaying the image on the display means, the enlargement or reduction display magnification of the image by the display control means, and the image are correlated, and storage means for storing a table in which the coordinates of the plurality of cells and the identification code and the identification code and a plurality of processing information is associated,
Designating means for designating a point on the image enlarged or reduced by the display control means;
The number of the plurality of cells, the reference dot size, and the enlargement / reduction display magnification are acquired with reference to the table, the coordinates of the point designated by the designation unit on the image, and the plurality of cells Discriminating means for discriminating a cell including the designated point based on the number, the reference dot size, and the enlargement or reduction display magnification;
An identification code output means for referring to the table and outputting an identification code corresponding to the area determined by the determination means;
When the identification code is output by the identification code output unit, the control unit refers to the table and executes a predetermined process based on the processing information corresponding to the identification code;
An image processing apparatus comprising:
請求項3に記載の画像処理装置において、The image processing apparatus according to claim 3.
前記制御手段が実行する所定の処理は、音声の出力又は前記表示手段上へのテキストの出力であることを特徴とする画像処理装置。2. The image processing apparatus according to claim 1, wherein the predetermined processing executed by the control means is output of a voice or output of text on the display means.
JP5550799A 1999-03-03 1999-03-03 Image processing device Expired - Fee Related JP3951492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5550799A JP3951492B2 (en) 1999-03-03 1999-03-03 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5550799A JP3951492B2 (en) 1999-03-03 1999-03-03 Image processing device

Publications (2)

Publication Number Publication Date
JP2000250678A JP2000250678A (en) 2000-09-14
JP3951492B2 true JP3951492B2 (en) 2007-08-01

Family

ID=13000598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5550799A Expired - Fee Related JP3951492B2 (en) 1999-03-03 1999-03-03 Image processing device

Country Status (1)

Country Link
JP (1) JP3951492B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4534466B2 (en) * 2003-11-18 2010-09-01 富士ゼロックス株式会社 Mobile terminal device
JP4813119B2 (en) * 2005-07-29 2011-11-09 有限会社センチュリー・ブラザーズ Digital broadcast receiver
JP4730962B2 (en) * 2006-04-04 2011-07-20 Kddi株式会社 Mobile terminal with touch panel display and program
CN103577322B (en) * 2012-08-08 2015-08-12 腾讯科技(深圳)有限公司 A kind of hit testing method and apparatus
JP6127465B2 (en) * 2012-11-20 2017-05-17 株式会社リコー Information processing apparatus, information processing system, and program
CN112466253B (en) * 2020-11-30 2022-02-18 合肥维信诺科技有限公司 Display judgment method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2000250678A (en) 2000-09-14

Similar Documents

Publication Publication Date Title
JP4010460B2 (en) Image processing method and image processing apparatus
US7051289B1 (en) Window display device and method, and a recording medium recording a window display control program
US20060075362A1 (en) Image processing apparatus, method, and recording medium on which program is recorded for displaying thumbnail/preview image
JP2004012633A (en) List display of multiple images
JP3951492B2 (en) Image processing device
JP2000298679A (en) Information processor arranging plural object on map and its object arranging method
JP2003296027A (en) Method of optimizing button recognition area on touch panel
JP4631261B2 (en) Captured image projection apparatus, image processing method thereof, and program
JP2001005911A (en) Character input device and display controlling method
JPH10187679A (en) Table processor and storage medium
JPH11272393A (en) Position designation device and storage medium
KR20050075122A (en) Method and apparatus generating plural images by scanning of one time
JPH1055431A (en) Image processor
JP2866287B2 (en) Music score creation device
JP2539395B2 (en) Information processing device
JPH0554114A (en) Image display device
JPH08287272A (en) Document preparation device and plane figure arranging method
JPH0991462A (en) Image processing unit and its method
JP2805435B2 (en) Music score creation device
JPH07302322A (en) Picture display device
JPH0241557A (en) Format set processing system of layout display
JPH04118763A (en) Document preparing device
JPH11184936A (en) Method and device for slip preparation and recording medium
JPH1185733A (en) Document editing device and its method and recording medium
JPH06266706A (en) Word processor with character size changing function

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070416

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130511

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130511

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees