JP3578917B2 - Image processing apparatus, image processing system, image processing method, and computer-readable recording medium - Google Patents

Image processing apparatus, image processing system, image processing method, and computer-readable recording medium Download PDF

Info

Publication number
JP3578917B2
JP3578917B2 JP22443498A JP22443498A JP3578917B2 JP 3578917 B2 JP3578917 B2 JP 3578917B2 JP 22443498 A JP22443498 A JP 22443498A JP 22443498 A JP22443498 A JP 22443498A JP 3578917 B2 JP3578917 B2 JP 3578917B2
Authority
JP
Japan
Prior art keywords
processing
dust
image
information
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22443498A
Other languages
Japanese (ja)
Other versions
JP2000057362A (en
Inventor
善彦 小野川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd, Dainippon Screen Manufacturing Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP22443498A priority Critical patent/JP3578917B2/en
Publication of JP2000057362A publication Critical patent/JP2000057362A/en
Application granted granted Critical
Publication of JP3578917B2 publication Critical patent/JP3578917B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、画像に施されるべき加工の位置を入力する画像加工位置入力装置、画像に加工を施す画像加工装置、画像の加工状態を表示する画像加工状態表示装置等に関する。
【0002】
【従来の技術】
従来より、コンピュータ上で画像編集アプリケーションを実行して画像中のゴミ消去作業を行う際には、オペレータはゴミの発見とゴミの消去とを繰り返して画像全体のゴミの消去を行っている。そして、ゴミ消去作業が完了すると、作業完了後の画像がディレクタやクライアントにより確認される。
【0003】
ディレクタやクライアントがゴミの消去が不完全であると判断した場合にはオペレータに対してさらなるゴミ消去の指示が出される。
【0004】
【発明が解決しようとする課題】
ところで、画像中のゴミは一般に画像に対して非常に小さなものであり、ゴミ消去作業ではゴミの存在位置近傍を拡大表示して画像を局所的に確認しながら作業を進めていく。特に、印刷用の高精細な画像の場合、画像中のゴミが非常に小さなものであるとともに、ゴミの数も多くなる。
【0005】
このような画像中の小さなゴミを上述の方法で消去していった場合、ゴミの消去漏れが発生する可能性が高く、オペレータはゴミ消去作業終了後に画像全体を数回に渡って確認する必要が生じる。
【0006】
また、ゴミ消去作業の指示を出したディレクタやクライアントもゴミ消去の出来具合を確認する際にどの位置に存在していたゴミを消去したのかが不明であるため、画像全体を隅から隅まで確認する必要が生じる。
【0007】
このように、ゴミ消去作業等の画像に加工を施す作業では、複数の人間が画像の隅々まで作業の出来具合を確認する必要があるため作業生産性が低くなってしまう。
【0008】
そこで、この発明は上記課題に鑑みなされたものであり、画像に対する加工作業や加工の確認作業を効率よく行い、作業生産性の向上を図ることができる画像加工位置入力装置、画像加工装置、画像加工状態表示装置等を提供することを目的としている。
【0009】
【課題を解決するための手段】
請求項1の発明は、画像加工装置であって、対象画像を表示する画像表示手段と、対象画像内での各加工位置を示す第1の情報を記憶する手段と、前記第1の情報に基づいて、各加工位置における加工用マークを画像加工が施された対象画像に重ねて前記画像表示手段に表示させる表示制御手段と、各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置における加工が適切に行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手段とを備え、前記表示制御手段は、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更することを特徴とする。
【0010】
請求項2の発明は、画像加工装置であって、対象画像内での各加工位置の入力を受け付ける手段と、対象画像内での各加工位置を示す第1の情報を記憶する手段と、前記第1の情報に基づいて、各加工位置における加工用マークを前記対象画像に重ねて表示させる手段と、前記加工用マークに対応する部分において画像加工を行う手段と、前記第1の情報に基づいて、各加工位置における加工用マークを前記画像加工が施された対象画像に重ねて表示させる手段と、各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置において適切な加工が行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手段と、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する手段とを備えることを特徴とする。
【0011】
請求項3の発明は、請求項1または請求項2の発明に係る画像加工装置であって、加工用マークが表示される際には、対象画像と加工用マークとが透かし合成されることを特徴とする。
【0012】
請求項4の発明は、請求項1から請求項3のいずれかの発明に係る画像加工装置であって、加工位置ごとの加工情報をリスト表示する手段、をさらに備えることを特徴とする。
【0013】
請求項5の発明は、画像加工システムであって、対象画像を表示する画像表示手段と、対象画像内での各加工位置を示す第1の情報を記憶する手段と、前記第1の情報に基づいて、各加工位置における加工用マークを画像加工が施された対象画像に重ねて前記画像表示手段に表示させる表示制御手段と、各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置における加工が適切に行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手段とを備え、前記表示制御手段は、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更することを特徴とする。
【0014】
請求項6の発明は、画像加工システムであって、対象画像内での各加工位置の入力を受け付ける手段と、対象画像内での各加工位置を示す第1の情報を記憶する手段と、前記第1の情報に基づいて、各加工位置における加工用マークを前記対象画像に重ねて表示させる手段と、前記加工用マークに対応する部分において画像加工を行う手段と、前記第1の情報に基づいて、各加工位置における加工用マークを前記画像加工が施された対象画像に重ねて表示させる手段と、各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置において適切な加工が行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手段と、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する手段とを備えることを特徴とする。
【0015】
請求項7の発明は、請求項5または請求項6の発明に係る画像加工システムであって、加工用マークが表示される際には、対象画像と加工用マークとが透かし合成されることを特徴とする。
【0016】
請求項8の発明は、請求項5から請求項7のいずれかの発明に係る画像加工システムであって、加工位置ごとの加工情報をリスト表示する手段、をさらに備えることを特徴とする。
請求項9の発明は、画像加工方法であって、対象画像内での各加工位置を示す第1の情報を記憶する工程と、前記第1の情報に基づいて、各加工位置における加工用マークを画像加工が施された対象画像に重ねて所定の画像表示手段に表示させる工程と、各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置における加工が適切に行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する工程と、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する工程とを含むことを特徴とする。
請求項10の発明は、画像加工方法であって、対象画像内での各加工位置の入力を受け付ける工程と、対象画像内での各加工位置を示す第1の情報を記憶する工程と、前記第1の情報に基づいて、各加工位置における加工用マークを前記対象画像に重ねて表示させる工程と、前記加工用マークに対応する部分において画像加工を行う工程と、前記第1の情報に基づいて、各加工位置における加工用マークを前記画像加工が施された対象画像に重ねて表示させる工程と、各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置において適切な加工が行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する工程と、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する工程とを含むことを特徴とする。
請求項11の発明は、コンピュータに、対象画像内での各加工位置を示す第1の情報を記憶する手順と、前記第1の情報に基づいて、各加工位置における加工用マークを画像加工が施された対象画像に重ねて所定の画像表示手段に表示させる手順と、各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置における加工が適切に行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手順と、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する手順とを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴とする。
請求項12の発明は、コンピュータに、対象画像内での各加工位置の入力を受け付ける手順と、対象画像内での各加工位置を示す第1の情報を記憶する手順と、前記第1の情報に基づいて、各加工位置における加工用マークを前記対象画像に重ねて表示させる手順と、前記加工用マークに対応する部分において画像加工を行う手順と、前記第1の情報に基づいて、各加工位置における加工用マークを前記画像加工が施された対象画像に重ねて表示させる手順と、各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置において適切な加工が行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手順と、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する手順とを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴とする。
【0017】
【発明の実施の形態】
<1. 第1の実施の形態>
図1はこの発明の第1の実施の形態である画像加工装置1の構成を示す図である。この画像加工装置1は画像の加工作業として画像中のゴミ消去作業を行う装置であり、オペレータによる指示入力に従って画像中のゴミの存在位置をマークした上でゴミ消去作業を行うことができるようになっている。
【0018】
図1に示すように画像加工装置1は通常のコンピュータ・システム(以下、「コンピュータ」という。)を利用した構成となっている。画像加工装置1は各種演算命令を実行するCPU11、プログラム等を記憶するメモリ12、ゴミ消去作業の対象となる画像を記憶する専用の画像メモリ13、不揮発性の記憶領域となる固定ディスク14、ディスプレイ等の表示部15、マウス、キーボード、スタイラスペン等のオペレータからの入力を受け付ける入力部16、および記録媒体9からプログラムや各種情報を読み取る読取部17を適宜インターフェイスを介する等してバスライン18に接続するようにして有している。
【0019】
メモリ12はCPU11の作業領域となるとともに、画像加工装置1の動作内容であるプログラム21や後述するダストリスト22を記憶する領域となっており、CPU11がプログラム21に含まれる演算命令に従って各種演算を行うことにより画像加工装置1がゴミの位置の入力、ゴミの消去、およびゴミ消去の確認を行うための装置として機能するようになっている。
【0020】
プログラム21は記録媒体9から読取部17を介して固定ディスク14に記憶され、プログラム21の実行時に適宜メモリ12に読み込まれるようになっている。記録媒体9は磁気ディスク、光ディスク、光磁気ディスク等のように様々な種類のものであってよい。なお、固定ディスク14も記録媒体としての役割を果たしている。
【0021】
固定ディスク14にはゴミ消去作業の対象となる画像も記憶されており、作業が行われる際には固定ディスク14から画像メモリ13へと画像が転送される。
【0022】
表示部15は画像全体を縮小表示する全体表示ウィンドウや作業箇所近傍を拡大表示する作業ウィンドウ等を表示するものであり、表示部15の表示をオペレータが認識しながら入力部16を用いて作業を行うことでゴミの存在位置の入力、ゴミの消去、ゴミ消去の確認が進められる。
【0023】
図2は画像加工装置1の構成を機能の面から示すブロック図である。すなわち、CPU11がプログラム21に従って動作することにより図2に示す各構成の役割を果たすようになっている。
【0024】
画像加工装置1はゴミ消去の対象となる画像8中のゴミの存在位置をオペレータが指示入力し、ゴミの存在位置にダストマーク表示してゴミ消去作業を行うことができるようになっている。また、ゴミ消去作業の完了後においてもダストマークを見ながらゴミ消去の出来具合が確認できるようになっている。このような各作業において図2に示すダストリスト管理部31が中心的な役割を果たす。
【0025】
ダストリスト管理部31はダストリスト22への情報の書き込みや読み出しを担当しており、ダストリスト22は図3に示すように各ダストマークに対応する情報(以下、「ダスト情報」という。)221を有している。なお、各ダスト情報221に含まれるデータを図4に例示する。
【0026】
ダストマーク設定部32はオペレータによる入力部16からのダストマークの設定入力を受け付けるものであり、入力された設定内容はダストリスト22に格納される。図5は画像8中の消去すべきゴミ81を例示する図であり、オペレータがスタイラスペン等でゴミ81をなぞるようにしてゴミの存在位置を入力する。オペレータの入力により画像加工装置1はゴミの存在位置にダストマークを表示することができるようになる。図6はゴミ消去作業の際に既に入力されているダストマーク4が表示された状態を示している。なお、図5および図6はゴミの位置の入力作業やゴミ消去作業のために作業ウィンドウ151に画像8の一部が拡大表示された様子を示している。
【0027】
画像処理部33は表示部15への表示のための処理を行うものであり、図2に示す他の構成からの命令に従って画像8の表示やダストマーク4の表示・非表示等を行う。
【0028】
ダストマーク表示制御部34は、図6に示したダストマーク4を画像8に重ねて表示したりダストマーク4のみを非表示にしたりするものである。また、ダストマーク指定部35は表示されたダストマーク4のうちオペレータにより指定されたダストマーク4を特定するものである。そして、オペレータにより指定されたダストマーク4近傍が拡大表示されて後述するゴミ消去作業やゴミ消去確認作業が行われたり、指定されたダストマーク4に対応するダスト情報221が別途ウィンドウにて詳細に表示されたりする。
【0029】
ダストリスト表示制御部36はダストマーク4に関する情報の一覧の表示を制御するものであり、ダストリスト表示制御部36により図7に例示するリストウィンドウ152中にダスト情報221の一覧が表示される。また、ダストリスト指定部37はリストウィンドウ152にてキーボード、マウス等により指定されたダスト情報221を特定するものであり、指定されたダスト情報221の内容が別途ウィンドウにて詳細に表示されたり、指定されたダスト情報221に対応するダストマーク4近傍が拡大表示されてゴミ消去作業やゴミ消去確認作業が行われたりする。
【0030】
ゴミ消去部38は画像8にゴミ消去を施すものであり、オペレータからの指示入力に従ってゴミ消去を行ったり、自動モードの場合には自動的にゴミの消去を行う。
【0031】
以上、画像加工装置1の構成について説明してきたが、次に、この画像加工装置1を用いたゴミ消去作業全体について説明する。図8は画像加工装置1の動作およびオペレータの作業の流れの概要を示す流れ図である。図8に示すようにこの画像加工装置1では画像処理部33により対象となる画像8が表示部15に表示された後(ステップS1)、オペレータによるゴミの発見作業(ステップS2)、ゴミの消去作業(ステップS3)およびゴミ消去の確認作業(ステップS4)が順に行われる。
【0032】
ゴミ発見作業はオペレータが表示部15に表示された画像8を見ながら消去すべきゴミの位置を入力する作業であり、ゴミ消去作業はゴミ発見作業にて入力されたゴミの位置にダストマーク4を表示しつつオペレータが(または、自動的に)ゴミの消去を行う作業である。また、ゴミ消去確認作業はダストマーク4を表示しつつゴミ消去の出来具合をオペレータが確認する作業であり、ゴミ消去確認作業にて不十分なゴミの消去が発見された場合にはダスト情報221に差し戻しフラグ(図4参照)が設定されてゴミ消去作業に戻される(ステップS5)。全てのダストマーク4についてゴミ消去が適正に行われている場合には全体の作業が終了する。
【0033】
図8に示すゴミ発見作業、ゴミ消去作業およびゴミ消去確認作業は同一のオペレータにより行われてもよいが、それぞれ別のオペレータが行ってもよい。すなわち、ゴミ発見作業専属のオペレータ、ゴミ消去作業専属のオペレータ、ゴミ消去確認作業専属のオペレータが順にこれらの作業を行うことができるようになっている。
【0034】
図9はゴミ発見作業(ステップS2)におけるオペレータの作業および画像加工装置1の動作の流れを示す流れ図である。
【0035】
ゴミ発見作業では、まず、オペレータが画像8の一部を拡大表示してゴミの発見を行う。このようなゴミ発見作業は拡大表示する部分を画像8に対して移動しながら画像8全体に対して行われる。
【0036】
ゴミが発見された場合にはオペレータがゴミの存在位置(すなわち、後述するゴミ消去作業においてダストマーク4が表示される位置)やゴミ消去の優先度、コメント等を入力する(ステップS21、S22)。
【0037】
優先度とは各ゴミの消去に優先順位を設ける場合に利用されるものであり、オペレータが優先度を参照しながら、あるいは優先度順に自動的に対象となるゴミを切り替えてゴミ消去作業を行うことにより、限られた時間内に作業生産性のよい作業を行うことができる。例えば、「空と森」の写真画像が画像8である場合に、ゴミが目立ちやすい「空」の部分のゴミには優先度が高く設定され、ゴミが目立ちにくい「森」の部分のゴミには優先度が低く設定される。
【0038】
また、コメントは、例えばゴミ発見作業のオペレータがゴミ消去作業のオペレータにゴミの消去方法を伝達する場合に利用される。
【0039】
ゴミの存在位置や優先度等がオペレータにより入力されると、これらの情報はダストマーク設定部32からダストリスト管理部31を介してダストリスト22に追加記入されていく(ステップS23)。これにより、図4に例示したダスト情報221が生成された上で、ダスト情報221のシーケンシャル番号、入力作業を行ったオペレータ名、ダストマークの設定日時、ダストマークの位置、ダストマークの形状、優先度、コメント等がダスト情報221に格納される。
【0040】
なお、図6に示すダストマーク4はマウスやスタイラスペンでオペレータが画像上をなぞった軌跡の形状となっている。したがって、ダストマークの形状としては「軌跡」が格納され、ダストマークの位置としては軌跡を構成する位置情報の配列が格納される。ダストマーク4の形状は図6に例示される軌跡の形状に限定されるものではなく、例えば、「円」や「三角形」等の定型的な形状であってもよい。さらには、オペレータの指示入力位置から引き出し線を出して「ゴミ」という表示をタブにて表示するようになっていてもよい。
【0041】
このように、入力されたゴミの存在位置等はダスト情報221として画像8とは別個に保存される。そして、このダスト情報221は次工程のゴミ消去作業において画像8中にダストマーク4を表示・非表示するために利用される。すなわち、ダストマーク4を画像8に重ねて表示しつつダストマーク4を画像8の表示から独立して制御するために、ダスト情報221は画像8から独立した状態でメモリ12に記憶される。
【0042】
オペレータが画像8全体に渡るゴミ発見作業を終えると、ゴミ発見作業は完了する。なお、オペレータがゴミ発見作業の進捗状況やゴミ発見作業の出来具合を確認するためにゴミ発見作業にて既に設定されているダスト情報221に基づいて適宜ダストマーク4が表示されたり、オペレータが発見したゴミをスタイラスペンやマウス等でなぞるとその軌跡がその都度ダストマーク4として表示されるようになっていてもよい。
【0043】
図10ないし図12はゴミ消去作業(ステップS3)におけるオペレータの作業および画像加工装置1の動作の流れを示す流れ図である。なお、後述するゴミ消去確認作業(ステップS4)と図10および図11に示す動作が共通の動作であるため、これらの図では両作業を重ねて記載している。
【0044】
ゴミ消去作業では、まず、表示部15に画像8が表示される(図10:ステップS311)。ゴミ発見作業に続いてゴミ消去作業が行われる場合には画像8は既に表示されているので、画像8の表示工程は行われない。
【0045】
次に、各ゴミに対して以下に説明するゴミの消去が繰り返し行われる(ステップS312)。
【0046】
まず、画像8の表示に重ねてダストマーク4が図6に例示するように表示される(ステップS314)。ダストマーク4の表示はオペレータからの指示入力に従ってダストマーク表示制御部34および画像処理部33により行われるようになっていてもよく(ステップS313)、ゴミ消去作業に移行すると自動的にダストマーク表示制御部34等がダストマーク4の表示を行うようになっていてもよい。ダストマーク表示制御部34等はダスト情報221に含まれるダストマークの位置および形状のデータに従って画像8にダストマーク4を合成表示する。
【0047】
この画像加工装置1では、ダストマーク4は画像8とが透かし合成されて表示される。すなわち、ダストマーク4が表示される領域ではダストマーク4を表示する画素と画像8を表示する画素とが適宜交互に並べられる。あるいは、ダストマーク4が表示される領域ではダストマーク4を表示するための画素値と画像8を表示するための画素値がRGBのそれぞれについて加重平均されて表示される。これにより、オペレータは図6に例示するダストマーク4と図5に例示するゴミ81とを同時に認識することができる。なお、どれだけダストマーク4からゴミが透けて見えるかという透かしの度合いは予め設定されている。
【0048】
次に、オペレータは消去すべきゴミを選択する。ゴミの選択、すなわちダスト情報221の選択は図7に例示したリストウィンドウ152からダスト情報221を選択する方法と、オペレータが画像8中のダストマーク4をマウス等でクリックして選択する方法とがある。
【0049】
リストウィンドウ152からダスト情報221を選択する場合には、オペレータは表示部15にリストウィンドウ152を表示させ、所望のダスト情報221を選択する(ステップS315)。これにより、ダストリスト指定部37がダストリスト表示制御部36を介して画像処理部33に選択されたダスト情報221に対応するゴミの存在位置近傍を作業ウィンドウ151に拡大表示する(図11:ステップS317)。なお、リストウィンドウ152におけるダスト情報221の表示順序をダストマーク4の設定順序や優先度の順序等のオペレータが指定した順序とすることにより作業効率が向上される。
【0050】
表示部15に表示されるダストマーク4から所望のゴミが選択される場合には、ダストマーク指定部35がダストマーク表示制御部34を介して画像処理部33に選択されたダストマーク4近傍を作業ウィンドウ151に拡大表示する(ステップS316、S317)。
【0051】
ゴミ消去を行うゴミの近傍がダストマーク4とともに拡大表示されると、オペレータはダストマーク4の非表示を指示入力し(ステップS318)、画像処理部33が拡大されたゴミ近傍の画像のみを表示する(ステップS319)。なお、ダストマーク4の非表示は拡大表示と同時に自動的に行われてもよい。また、既述のように画像加工装置1ではダストマーク4と画像8とを透かし合成するので、ダストマーク4の非表示を行うことなくゴミ消去作業を行うこともできる。この場合はダストマーク4の非表示は行われない。
【0052】
なお、ダストマーク4がドット等の小さなマークである場合には、ダストマーク4と画像8とを透かし合成しなくても(すなわち、ダストマーク4を不透明な状態で重ねて表示しても)オペレータはゴミの状態を認識することができるので、ダストマーク4の非表示を行うことなくゴミ消去作業を行うことができる。
【0053】
以上のようなゴミの選択が行われた際にはゴミに対応するダスト情報221が必要に応じて別途詳細に表示される。
【0054】
ゴミが表示部15に拡大表示されると、次に、ゴミの消去が行われる(図12:ステップS320)。ゴミの消去はオペレータにより入力部16を介して行われてもよく、自動的に行われてもよい。オペレータがゴミの消去を行う場合には、オペレータがスタイラスペンやマウス等を用いてゴミの部分をゴミ周囲の色で置換する等して作業が行われる。これに従って、ゴミ消去部38が画像8に対して加工を行う。自動的にゴミ消去が行われる場合には、図6に例示したダストマーク4が施された部分が自動的に周囲の色に置換される。自動消去を利用することにより、オペレータは後述するゴミ消去確認作業および差し戻し後のゴミ消去作業に専念できる。
【0055】
選択されたゴミの消去が完了するとオペレータがゴミの消去作業完了日やコメント等を入力する(ステップS321)。これにより、ダストリスト管理部31が図4に示すダスト情報221にゴミ消去日時やコメントを格納する。コメントとしてはゴミの消去方法、消去の出来具合が記入される。なお、ゴミ消去日時は次のゴミの消去に移行した際に自動的に設定されてもよい。
【0056】
以上説明してきたようなゴミの選択およびゴミの消去がダストマーク4が施された全てのゴミに対して行われるとゴミ消去作業が完了する(ステップS312)。
【0057】
なお、各ダスト情報221に優先度が設定されている場合には、優先度が高いゴミから順に拡大表示されてゴミ消去作業が行われ、効率のよいゴミ消去作業が行われる。
【0058】
また、オペレータがゴミ消去作業の進捗状況を容易に認識することができるように、ゴミ消去作業完了日時が設定されたダスト情報221に対応するダストマーク4の表示色がダストマーク表示制御部34により変更される。このようなダストマーク4の表示の変更はゴミの消去済を認識することができるのであるならばどのようなものであってもよく、例えば、ダストマーク4が「円」といった定型的な形状である場合に「三角形」等の他の形状に変更するようにしてもよい。
【0059】
ゴミ消去作業が完了すると、次に、ゴミ消去の出来具合を確認するゴミ消去確認作業(ステップS4)が行われる。図10、図11および図13はゴミ消去確認作業におけるオペレータの作業および画像加工装置1の動作の流れを示す流れ図である。
【0060】
ゴミ消去確認作業においてもゴミ消去作業と同様に、まず、画像8が表示部15に表示される(図10:ステップS311)。ゴミ消去作業に続いてゴミ消去確認作業が行われる場合には既に画像8が表示されているので、表示の工程は不要となる。
【0061】
次に、以下に説明するゴミ消去の確認が各ダストマーク4に対して繰り返し行われる(ステップS312)。
【0062】
ゴミ消去の確認においても各ゴミが存在していた位置が順に拡大表示される。この動作はゴミ消去作業の場合と同様である(ステップS313〜S316、図11:ステップS317〜S319)。すなわち、ダストマーク4が画像8に透かし合成されるようにして重ねて表示され(ステップS314)、オペレータがダストマーク4やダスト情報221を選択することにより注目すべきゴミの位置(正確にはゴミが存在していた位置)が拡大表示される(ステップS315〜S317)。また、ダストマーク4が画像8と透かし合成されている場合等にはダストマーク4の非表示を行うことなくゴミ消去の出来具合を確認することができるので、ダストマーク4の非表示は必要に応じてのみ行われる(ステップS318、S319)。
【0063】
注目するゴミの位置が拡大表示されると、オペレータはゴミの消去の出来具合を確認し(図13:ステップS420)、適切な消去が行われている場合にはオペレータは入力部16を介して確認作業完了日時等を設定する。これにより、ダストリスト管理部31がダスト情報221に確認作業完了日時等を格納する(ステップS421、S422、図4参照)。
【0064】
これに対し、ゴミの消去が不完全であるとオペレータが判断した場合にはオペレータは入力部16を介して差し戻しフラグの設定を入力し、ダストリスト管理部31がダスト情報221に差し戻しフラグをセットする(ステップS421、S423、図4参照)。
【0065】
ゴミ消去の確認がダストマーク4が施された全てのゴミについて行われるとゴミ消去確認作業が完了する(ステップS312)。
【0066】
なお、ゴミ消去確認作業においても作業の進捗状況を容易に把握できるように、確認作業完了日時が設定されたダスト情報221に対応するダストマーク4の色または形状がダストマーク表示制御部34により変更される。さらに、差し戻しフラグが設定されたダスト情報221に対応するダストマーク4の色または形状もゴミ消去作業全体の出来具合を容易に把握するために変更される。このようなダストマーク4の表示の変更は作業の進行に合わせて変更されるダスト情報221の内容に応じて変更されるものであればどのようなものであってもよい。
【0067】
ダストマーク4が施された全てのゴミの消去に対して確認が完了した際に、いずれかのダスト情報221に差し戻しフラグが設定されている場合には、再びゴミ消去作業が行われる(図8:ステップS5)。この際、既述のように差し戻しフラグが設定されたダスト情報221に対応するダストマーク4の表示は変更されているので、ゴミ消去作業を行うオペレータは容易に再修正すべきゴミを認識することができる。
【0068】
以上、画像加工装置1の構成および動作について説明してきたが、この画像加工装置1では、まず、ゴミ発見作業において発見された各ゴミに対してダストマーク4を表示するためのダスト情報221を生成し、画像8とは別個に記憶するので、次工程であるゴミ消去作業においてダストマーク4の表示を画像8の表示とは独立して制御することができる。これにより、次工程であるゴミ消去作業時にオペレータが消去すべきゴミを容易に認識することができ、ゴミ消去作業の作業生産性の向上を図ることができる。特に、ゴミ発見作業とゴミ消去作業とが時間的に離れている場合や異なるオペレータにより行われる場合であっても円滑なゴミ消去作業を行うことができる。
【0069】
また、ダストマーク4の表示はゴミ消去作業やゴミ消去確認作業の完了ごとに、あるいは差し戻しフラグの設定により変更されるので、ゴミ消去作業やゴミ消去確認作業の進捗状況を容易に把握できるとともに、差し戻し後のゴミ消去作業も効率よく行われる。特に、ゴミ消去作業とゴミ消去確認作業とが時間的に離れている場合や異なるオペレータにより行われる場合であても一連の作業を円滑に行うことができる。
【0070】
また、ゴミ消去作業やゴミ消去確認作業においてダストマーク4を表示する際には透かし合成が行われるので、ダストマーク4が表示されている状態であってもオペレータはゴミの状態を認識することができ、作業効率が向上される。
【0071】
さらに、ゴミ消去作業やゴミ消去確認作業においてダスト情報221をリスト表示することもできるので、ゴミの選択を漏れなく行うことができる。
【0072】
なお、ダストマーク4の表示・非表示やダスト情報221のリスト表示・非表示はゴミ消去作業やゴミ消去確認作業において必要に応じて随時行われてもよい。
【0073】
また、この画像加工装置1ではゴミ発見作業、ゴミ消去作業、ゴミ消去確認作業の内容は常にダスト情報221として記憶されるので、これらの作業が中断された場合にダスト情報221をダストリスト22として別途固定ディスク14に保存するとともに作業再開時にメモリ12に読み出すことにより中断した状態から作業を再開することができる。
【0074】
<2. 第2の実施の形態>
図14はこの発明の第2の実施の形態に係る画像加工システム5の構成を示す図である。第1の実施の形態では、画像加工装置1においてオペレータがゴミ発見作業、ゴミ消去作業およびゴミ消去確認作業を行うようになっていたが、この画像加工システム5ではそれぞれの作業が専用のコンピュータにおいて行われるようになっている。すなわち、画像加工システム5はゴミ発見作業専用の画像加工位置入力装置5a、ゴミ消去作業専用の画像加工装置5b、およびゴミ消去確認作業専用の確認用表示装置5cをそれぞれコンピュータとしてLAN51等の通信手段を介して接続した構成となっている。
【0075】
また、LAN51にはゴミ消去の対象となる画像8およびダストリスト22を格納する固定ディスク52が接続されている。
【0076】
各装置は図1に示した構成と同様の構成となっており、第1の実施の形態にて示したゴミ発見作業(図9)が画像加工位置入力装置5aにおいて行われ、ゴミ消去確認作業(図10〜図12)が画像加工装置5bにおいて行われ、ゴミ消去確認作業(図10、図11、図13)が確認用表示装置5cにおいて行われる。
【0077】
また、各装置にて生成あるいは変更されるダスト情報221のリストであるダストリスト22が固定ディスク52に適宜格納または読み出される。
【0078】
なお、各コンピュータを専用の装置として機能させるために各コンピュータには記録媒体9a、9b、9cからプログラムが読み込まれる。
【0079】
このように、画像加工システム5ではゴミ発見作業、ゴミ消去作業およびゴミ消去確認作業を別個の装置にて行うことができるので、各作業が異なるオペレータにより行われる場合にオペレータが各自のコンピュータで作業を行うことができ、分業化の際の作業生産性の向上を図ることができる。
【0080】
<3. 変形例>
以上、この発明に係る実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく、様々な変形が可能である。
【0081】
例えば、上記実施の形態ではゴミ消去作業という画像の加工作業を例に説明したが、画像の他の修正、切り取り、色補正等の様々な加工作業に利用可能である。この場合、加工を施すべき位置は上記実施の形態におけるゴミの存在位置に相当し、加工用のマークはダストマーク4に相当する。そして、加工に関する情報が上記実施の形態におけるダスト情報221と同様に適宜画像から独立した状態で記憶されることとなる。
【0082】
また、上記実施の形態では図8に示すようにゴミ発見作業、ゴミ消去作業およびゴミ消去確認作業が順に行われると説明したが、必要に応じてこれらの作業順序は変更されてもよい。例えば、ゴミ消去作業とゴミ消去確認作業とを各ゴミに対して連続して行ってもよく、ゴミ消去作業中にゴミ発見作業が不十分であることに気付いた場合にはゴミ発見作業に戻ってもよい。
【0083】
また、上記実施の形態では、ゴミ発見作業においてオペレータが表示部15に表示された画像8を見ながらゴミの位置の入力を行うと説明したが、ゴミの発見は特定の画素の画素値と周囲の画素の画素値との相違に基づいて自動的に行われてもよい。すなわち、ダスト情報221は自動的に準備されてもよい。また、ゴミの発見のみを自動的に行い、発見されたゴミの位置をオペレータが参照しながら自動生成されたダスト情報221をダストリスト22に登録すべきか否かを1つずつ確認するようになっていてもよい。
【0084】
さらに、上記実施の形態においてゴミ消去作業を自動的に行う場合についても説明したが、ダスト情報221にゴミの自動消去パラメータを持たせ、この自動消去パラメータが自動消去を示しているゴミに対してのみ画像加工装置1が自動消去を実行するようになっていてもよい。さらに、自動消去パラメータに応じてダストマーク4の表示を変更することで、オペレータは自動消去されたゴミの修正具合を容易に確認することができるようになる。
【0085】
【発明の効果】
請求項1〜12に記載の発明によれば、加工の確認作業の進捗状況を容易に把握することができる。
【図面の簡単な説明】
【図1】この発明に係る第1の実施の形態である画像加工装置の構成を示す図である。
【図2】第1の実施の形態における画像加工装置の構成を機能の面から示すブロック図である。
【図3】ダストリストの内容を示す図である。
【図4】ダスト情報の内容を例示する図である。
【図5】画像中のゴミの様子を例示する図である。
【図6】画像に重ねて表示されるダストマークの様子を例示する図である。
【図7】リストウィンドウの例を示す図である。
【図8】ゴミ消去における作業の全体の流れを示す流れ図である。
【図9】ゴミ発見作業におけるオペレータの作業および画像加工装置の動作の流れを示す流れ図である。
【図10】ゴミ消去作業およびゴミ消去確認作業におけるオペレータの作業および画像加工装置の動作の流れを示す流れ図である。
【図11】ゴミ消去作業およびゴミ消去確認作業におけるオペレータの作業および画像加工装置の動作の流れを示す流れ図である。
【図12】ゴミ消去作業におけるオペレータの作業および画像加工装置の動作の流れを示す流れ図である。
【図13】ゴミ消去確認作業におけるオペレータの作業および画像加工装置の動作の流れを示す流れ図である。
【図14】この発明に係る第2の実施の形態である画像加工システムの構成を示す図である。
【符号の説明】
1 画像加工装置
4 ダストマーク
5a 画像加工位置入力装置
5b 画像加工装置
5c 確認用表示装置
8 画像
9、9a 記録媒体
11 CPU
12 メモリ
14 固定ディスク
15 表示部
16 入力部
21 プログラム
31 ダストリスト管理部
32 ダストマーク設定部
33 画像処理部
34 ダストマーク表示制御部
36 ダストリスト表示制御部
38 ゴミ消去部
221 ダスト情報
S1、S22、S23 ステップ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing position input device for inputting a processing position to be performed on an image, an image processing device for processing an image, an image processing state display device for displaying an image processing state, and the like.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, when an image editing application is executed on a computer to remove dust from an image, an operator repeats finding dust and removing dust to remove dust from the entire image. When the dust erasing operation is completed, the image after the operation is completed is confirmed by the director or the client.
[0003]
If the director or the client determines that the dust removal is incomplete, an instruction for further dust removal is issued to the operator.
[0004]
[Problems to be solved by the invention]
By the way, dust in an image is generally very small with respect to the image, and in the dust erasing work, the work is performed while enlarging and displaying the vicinity of the position of the dust and locally checking the image. In particular, in the case of a high-definition image for printing, dust in the image is very small, and the number of dust increases.
[0005]
If small dust in such an image is erased by the above-described method, there is a high possibility that omission of the dust will occur, and it is necessary for the operator to check the entire image several times after the dust erase operation is completed. Occurs.
[0006]
In addition, since the director and the client who issued the instruction of the dust removal work also do not know where the dust was removed when checking the state of the dust removal, the entire image is checked from corner to corner. Need to be done.
[0007]
As described above, in an operation for processing an image such as a dust erasing operation, a plurality of people need to check the state of the operation to all corners of the image, thereby lowering the work productivity.
[0008]
Therefore, the present invention has been made in view of the above problems, and an image processing position input apparatus, an image processing apparatus, and an image processing method capable of efficiently performing a processing operation on an image and a confirmation operation of the processing to improve the work productivity. It is an object to provide a processing state display device and the like.
[0009]
[Means for Solving the Problems]
The invention of claim 1 isAn image processing apparatus, comprising: an image display unit that displays a target image; a unit that stores first information indicating each processing position in the target image; and an image display unit that displays each target position based on the first information. A display control unit for displaying a processing mark on the image display unit by superimposing the processing mark on the target image on which the image processing has been performed, and receiving input from an operator as to whether or not appropriate processing is performed at each processing position, Means for setting, based on the input from the operator, second information indicating whether or not the processing at the processing position is appropriately performed, wherein the display control means is configured to control the first information and the second information. The display state of the processing mark at each processing position is changed based on the second information.
[0010]
The invention according to claim 2 is an image processing apparatus, wherein: means for receiving an input of each processing position in the target image; means for storing first information indicating each processing position in the target image; A means for displaying a processing mark at each processing position on the target image based on the first information; a means for performing image processing on a portion corresponding to the processing mark; Means for displaying a processing mark at each processing position on the target image on which the image processing has been performed, and accepting an input from an operator as to whether or not appropriate processing has been performed at each processing position. Means for setting, based on the input from the operator, second information indicating whether or not appropriate processing is being performed at the processing position, and based on the first information and the second information. , Characterized in that it comprises a means for changing the display state of the processing marks at each processing position.
[0011]
A third aspect of the present invention is the image processing apparatus according to the first or second aspect, wherein when the processing mark is displayed, the target image and the processing mark are watermark-combined. Features.
[0012]
According to a fourth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to third aspects, further comprising means for displaying a list of processing information for each processing position.
[0013]
The invention according to claim 5 is an image processing system, comprising: an image display unit that displays a target image; a unit that stores first information indicating each processing position in the target image; Display control means for displaying the processing mark at each processing position on the target image on which the image processing has been performed on the image display means, and determining whether or not appropriate processing has been performed at each processing position. Receiving input from the operator, and setting the second information indicating whether or not processing at each processing position is appropriately performed based on the input from the operator, the display control means includes: The display state of the processing mark at each processing position is changed based on the first information and the second information.
[0014]
7. The image processing system according to claim 6, wherein the processing unit receives an input of each processing position in the target image; a unit that stores first information indicating each processing position in the target image; A means for displaying a processing mark at each processing position on the target image based on the first information; a means for performing image processing on a portion corresponding to the processing mark; Means for displaying a processing mark at each processing position on the target image on which the image processing has been performed, and accepting an input from an operator as to whether or not appropriate processing has been performed at each processing position. Means for setting, based on the input from the operator, second information indicating whether or not appropriate processing is being performed at the processing position, based on the first information and the second information. There are, characterized in that it comprises a means for changing the display state of the processing marks at each processing position.
[0015]
According to a seventh aspect of the present invention, there is provided the image processing system according to the fifth or sixth aspect, wherein when the processing mark is displayed, the target image and the processing mark are watermark-combined. Features.
[0016]
An eighth aspect of the present invention is the image processing system according to any one of the fifth to seventh aspects, further comprising means for displaying a list of processing information for each processing position.
An image processing method according to claim 9, wherein the first information indicating each processing position in the target image is stored, and a processing mark at each processing position is stored based on the first information. And displaying on a predetermined image display means superimposed on the target image subjected to image processing, and accepting an input from an operator as to whether or not appropriate processing is performed at each processing position, and processing at each processing position Setting, based on the input from the operator, second information indicating whether or not the processing is properly performed; and, based on the first information and the second information, Changing the display state of the processing mark.
The invention according to claim 10 is an image processing method, wherein: a step of receiving an input of each processing position in the target image; a step of storing first information indicating each processing position in the target image; A step of superimposing a processing mark at each processing position on the target image based on the first information, a step of performing image processing in a portion corresponding to the processing mark, and a step of performing image processing based on the first information. Receiving a processing mark at each processing position on the target image on which the image processing has been performed, and receiving input from an operator as to whether or not appropriate processing is performed at each processing position; Setting, based on the input from the operator, second information indicating whether or not appropriate processing is performed at the processing position; and setting the second information based on the first information and the second information. Te, characterized in that it comprises a step of changing the display state of the processing marks at each processing position.
According to an eleventh aspect of the present invention, the computer has a procedure for storing first information indicating each processing position in the target image, and processing the processing mark at each processing position based on the first information. The procedure for displaying on the predetermined image display means superimposed on the applied target image and the input from the operator as to whether or not appropriate processing is performed at each processing position are received, and processing at each processing position is appropriately performed. Setting the second information indicating whether or not the processing mark has been set, based on the input from the operator; and setting the processing mark at each processing position based on the first information and the second information. And a computer-readable recording medium that records a program for executing the procedure for changing the display state.
According to the twelfth aspect of the present invention, there is provided a computer, comprising: a step of receiving an input of each processing position in a target image; a step of storing first information indicating each processing position in the target image; A procedure for superimposing a processing mark at each processing position on the target image based on the processing information, a procedure for performing image processing on a portion corresponding to the processing mark, and processing each processing based on the first information. The procedure for displaying the processing mark at the position superimposed on the target image on which the image processing has been performed, and receiving an input from an operator as to whether or not appropriate processing is performed at each processing position, A procedure for setting second information indicating whether or not any processing is performed based on the input from the operator, and based on the first information and the second information, Characterized in that it is a computer-readable recording medium recording a program for executing the procedure for changing the display state of the processing marks at the processing position.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
<1. First Embodiment>
FIG. 1 is a diagram showing a configuration of an image processing apparatus 1 according to a first embodiment of the present invention. This image processing device 1 is a device for performing dust elimination work in an image as an image processing operation. The image processing device 1 can mark the position of dust in an image according to an instruction input by an operator so that the dust elimination work can be performed. Has become.
[0018]
As shown in FIG. 1, the image processing apparatus 1 has a configuration using a normal computer system (hereinafter, referred to as “computer”). The image processing apparatus 1 includes a CPU 11 for executing various operation instructions, a memory 12 for storing programs and the like, a dedicated image memory 13 for storing an image to be subjected to dust removal work, a fixed disk 14 serving as a nonvolatile storage area, and a display. Display unit 15 for receiving input from an operator such as a mouse, a keyboard and a stylus pen, and a reading unit 17 for reading programs and various information from the recording medium 9 to the bus line 18 via an appropriate interface. It has to be connected.
[0019]
The memory 12 serves as a work area for the CPU 11 and an area for storing a program 21 which is an operation content of the image processing apparatus 1 and a dust list 22 which will be described later. By doing so, the image processing apparatus 1 functions as a device for inputting the position of dust, erasing dust, and confirming dust erasure.
[0020]
The program 21 is stored in the fixed disk 14 from the recording medium 9 via the reading unit 17, and is read into the memory 12 when the program 21 is executed. The recording medium 9 may be of various types such as a magnetic disk, an optical disk, a magneto-optical disk, and the like. Note that the fixed disk 14 also plays a role as a recording medium.
[0021]
An image to be subjected to dust erasing work is also stored in the fixed disk 14, and the image is transferred from the fixed disk 14 to the image memory 13 when the work is performed.
[0022]
The display unit 15 displays an entire display window for reducing the entire image and a work window for enlarging and displaying the vicinity of the work location. The operator recognizes the display on the display unit 15 and performs work using the input unit 16 while recognizing the display. By doing so, input of the existence position of dust, erasing of dust, and confirmation of dust erasure are advanced.
[0023]
FIG. 2 is a block diagram showing the configuration of the image processing apparatus 1 in terms of functions. That is, the CPU 11 operates according to the program 21 to play the role of each component shown in FIG.
[0024]
In the image processing apparatus 1, an operator inputs a position where dust is present in the image 8 to be erased, and a dust mark is displayed at the existing position of the dust so that dust can be erased. Even after the dust erasing operation is completed, the user can check the dust erasing state while looking at the dust mark. In each of such operations, the dust list management unit 31 shown in FIG. 2 plays a central role.
[0025]
The dust list management unit 31 is in charge of writing and reading information to and from the dust list 22, and the dust list 22 has information (hereinafter, referred to as "dust information") 221 corresponding to each dust mark as shown in FIG. have. Note that data included in each piece of dust information 221 is illustrated in FIG.
[0026]
The dust mark setting unit 32 receives an input of setting of a dust mark from the input unit 16 by the operator, and the input setting contents are stored in the dust list 22. FIG. 5 is a diagram exemplifying the dust 81 to be erased in the image 8, and the operator inputs the position of the dust by tracing the dust 81 with a stylus pen or the like. By the input of the operator, the image processing apparatus 1 can display the dust mark at the position where the dust exists. FIG. 6 shows a state in which the dust mark 4 already input during the dust erasing operation is displayed. FIGS. 5 and 6 show a state in which a part of the image 8 is enlarged and displayed in the work window 151 for inputting the position of dust and deleting dust.
[0027]
The image processing unit 33 performs processing for display on the display unit 15, and performs display of the image 8 and display / non-display of the dust mark 4 in accordance with an instruction from another configuration shown in FIG.
[0028]
The dust mark display controller 34 superimposes and displays the dust mark 4 shown in FIG. 6 on the image 8 or hides only the dust mark 4. Further, the dust mark designation section 35 is for specifying the dust mark 4 designated by the operator among the displayed dust marks 4. Then, the vicinity of the dust mark 4 designated by the operator is enlarged and displayed, and dust elimination work and dust elimination confirmation work described later are performed. Dust information 221 corresponding to the designated dust mark 4 is separately displayed in a separate window in detail. Or be displayed.
[0029]
The dust list display control unit 36 controls the display of a list of information related to the dust mark 4, and the dust list display control unit 36 displays a list of dust information 221 in a list window 152 illustrated in FIG. The dust list specifying unit 37 specifies the dust information 221 specified by a keyboard, a mouse, or the like in the list window 152. The contents of the specified dust information 221 are separately displayed in a separate window in detail. The vicinity of the dust mark 4 corresponding to the designated dust information 221 is enlarged and displayed, and dust erasing work or dust erasing confirmation work is performed.
[0030]
The dust erasing section 38 is for erasing dust on the image 8. The dust erasing section 38 erases dust according to an instruction input from an operator, or automatically erases dust in the automatic mode.
[0031]
The configuration of the image processing apparatus 1 has been described above. Next, the entire dust erasing operation using the image processing apparatus 1 will be described. FIG. 8 is a flowchart showing an outline of the flow of the operation of the image processing apparatus 1 and the work of the operator. As shown in FIG. 8, in the image processing apparatus 1, after the target image 8 is displayed on the display unit 15 by the image processing unit 33 (step S <b> 1), the operator finds dust (step S <b> 2), and deletes dust. The operation (step S3) and the dust erasure confirmation operation (step S4) are sequentially performed.
[0032]
The dust finding operation is for the operator to input the position of dust to be erased while looking at the image 8 displayed on the display unit 15, and the dust erasing operation is to put the dust mark 4 on the dust position input in the dust finding operation. Is displayed while the operator deletes dust (or automatically). The dust erasure confirmation operation is an operation in which the operator confirms the degree of dust elimination while displaying the dust mark 4. If insufficient dust erasure is found in the dust elimination confirmation operation, the dust information 221 is displayed. , A return flag (see FIG. 4) is set, and the process returns to the dust erasing operation (step S5). If dust removal has been properly performed on all the dust marks 4, the entire operation ends.
[0033]
The dust finding work, dust removing work and dust removing confirmation work shown in FIG. 8 may be performed by the same operator, or may be performed by different operators. That is, the operator dedicated to the dust finding operation, the operator dedicated to the dust erasing operation, and the operator dedicated to the dust erasing confirmation operation can sequentially perform these operations.
[0034]
FIG. 9 is a flowchart showing the flow of the operation of the operator and the operation of the image processing apparatus 1 in the dust finding operation (step S2).
[0035]
In the dust finding work, first, the operator finds dust by enlarging and displaying a part of the image 8. Such dust finding work is performed on the entire image 8 while moving the portion to be enlarged and displayed with respect to the image 8.
[0036]
If dust is found, the operator inputs the location of the dust (that is, the position where the dust mark 4 is displayed in the dust removal work described later), the priority of dust removal, a comment, and the like (steps S21 and S22). .
[0037]
The priority is used when a priority order is set for erasing each dust, and the operator performs dust removal work by referring to the priority or automatically switching the target dust in the priority order. Thereby, work with good work productivity can be performed within a limited time. For example, if the photographic image of “Sky and Forest” is Image 8, the trash in the “Sky” part where dust is conspicuous is set to a high priority, and the trash in the “Forest” part where dust is less noticeable is set. Has a lower priority.
[0038]
The comment is used, for example, when the operator of the dust finding operation notifies the operator of the dust erasing operation of the dust erasing method.
[0039]
When the position and priority of the dust are input by the operator, such information is additionally written from the dust mark setting unit 32 to the dust list 22 via the dust list management unit 31 (step S23). As a result, after the dust information 221 illustrated in FIG. 4 is generated, the sequential number of the dust information 221, the name of the operator who performed the input operation, the set date and time of the dust mark, the position of the dust mark, the shape of the dust mark, and the priority of the dust mark A degree, a comment, and the like are stored in the dust information 221.
[0040]
The dust mark 4 shown in FIG. 6 has the shape of a locus traced by an operator on an image with a mouse or a stylus pen. Therefore, "trajectory" is stored as the shape of the dust mark, and an array of position information forming the trajectory is stored as the position of the dust mark. The shape of the dust mark 4 is not limited to the shape of the trajectory illustrated in FIG. 6, and may be a standard shape such as “circle” or “triangle”. Further, a lead line may be drawn out from the instruction input position of the operator to display "dust" on a tab.
[0041]
As described above, the input position of dust and the like are stored separately from the image 8 as dust information 221. The dust information 221 is used to display / hide the dust mark 4 in the image 8 in the dust elimination work in the next step. That is, in order to control the dust mark 4 independently from the display of the image 8 while displaying the dust mark 4 superimposed on the image 8, the dust information 221 is stored in the memory 12 in a state independent of the image 8.
[0042]
When the operator finishes the dust finding work over the entire image 8, the dust finding work is completed. The dust mark 4 is displayed as appropriate based on the dust information 221 already set in the dust finding operation so that the operator can check the progress of the dust finding operation and the state of the dust finding operation. The trace may be displayed as a dust mark 4 each time the garbage is traced with a stylus pen, a mouse, or the like.
[0043]
FIGS. 10 to 12 are flowcharts showing the flow of the operation of the operator and the operation of the image processing apparatus 1 in the dust erasing operation (step S3). Note that the dust erasure confirmation operation (step S4) described later and the operations shown in FIGS. 10 and 11 are common operations, and therefore these operations are illustrated in an overlapping manner in these figures.
[0044]
In the dust erasing operation, first, the image 8 is displayed on the display unit 15 (FIG. 10: step S311). When the dust erasing operation is performed subsequent to the dust finding operation, the image 8 has already been displayed, so that the displaying process of the image 8 is not performed.
[0045]
Next, dust elimination described below is repeatedly performed on each dust (step S312).
[0046]
First, the dust mark 4 is displayed over the display of the image 8 as illustrated in FIG. 6 (step S314). The display of the dust mark 4 may be performed by the dust mark display control unit 34 and the image processing unit 33 in accordance with an instruction input from the operator (step S313). The control unit 34 or the like may display the dust mark 4. The dust mark display control unit 34 and the like combine and display the dust mark 4 on the image 8 according to the position and shape data of the dust mark included in the dust information 221.
[0047]
In the image processing device 1, the dust mark 4 is displayed by being watermark-combined with the image 8. That is, in the area where the dust mark 4 is displayed, the pixels that display the dust mark 4 and the pixels that display the image 8 are arranged alternately as appropriate. Alternatively, in the area where the dust mark 4 is displayed, the pixel value for displaying the dust mark 4 and the pixel value for displaying the image 8 are weighted and averaged for each of RGB and displayed. Thereby, the operator can simultaneously recognize the dust mark 4 illustrated in FIG. 6 and the dust 81 illustrated in FIG. Note that the degree of the watermark indicating how much dust can be seen through the dust mark 4 is set in advance.
[0048]
Next, the operator selects dust to be erased. Selection of dust, that is, selection of dust information 221 includes a method of selecting dust information 221 from list window 152 illustrated in FIG. 7 and a method of selecting dust mark 4 in image 8 by clicking with a mouse or the like by an operator. is there.
[0049]
When selecting the dust information 221 from the list window 152, the operator displays the list window 152 on the display unit 15 and selects the desired dust information 221 (step S315). As a result, the dust list designation unit 37 enlarges and displays the vicinity of the dust position corresponding to the dust information 221 selected by the image processing unit 33 via the dust list display control unit 36 in the work window 151 (FIG. 11: step). S317). The work efficiency is improved by setting the display order of the dust information 221 in the list window 152 to the order specified by the operator such as the order of setting the dust marks 4 and the order of priority.
[0050]
When a desired dust is selected from the dust marks 4 displayed on the display unit 15, the dust mark designation unit 35 determines the vicinity of the dust mark 4 selected by the image processing unit 33 via the dust mark display control unit 34. It is enlarged and displayed on the work window 151 (steps S316 and S317).
[0051]
When the vicinity of the dust to be dust-cleared is enlarged and displayed together with the dust mark 4, the operator inputs an instruction to hide the dust mark 4 (step S318), and the image processing unit 33 displays only the image near the enlarged dust. (Step S319). The non-display of the dust mark 4 may be automatically performed simultaneously with the enlarged display. Further, as described above, since the dust mark 4 and the image 8 are watermark-synthesized in the image processing device 1, dust erasing work can be performed without hiding the dust mark 4. In this case, the non-display of the dust mark 4 is not performed.
[0052]
If the dust mark 4 is a small mark such as a dot, the operator does not need to watermark-combine the dust mark 4 and the image 8 (that is, display the dust mark 4 in an opaque state). Since the state of dust can be recognized, dust can be erased without hiding the dust mark 4.
[0053]
When the above-mentioned dust is selected, dust information 221 corresponding to the dust is separately displayed in detail as necessary.
[0054]
When the dust is enlarged and displayed on the display unit 15, the dust is then erased (FIG. 12: step S320). Deletion of dust may be performed by the operator via the input unit 16 or may be performed automatically. When the operator deletes dust, the operator replaces the dust with a color around the dust using a stylus pen, a mouse, or the like. In accordance with this, the dust erasing unit 38 processes the image 8. When the dust is automatically erased, the portion where the dust mark 4 illustrated in FIG. 6 is applied is automatically replaced with the surrounding color. By using the automatic erasure, the operator can concentrate on the dust erasure confirmation operation described later and the dust erasure operation after the return.
[0055]
When the erasure of the selected garbage is completed, the operator inputs a garbage erasure work completion date, a comment, and the like (step S321). As a result, the dust list management unit 31 stores the dust removal date and time and the comment in the dust information 221 shown in FIG. As the comment, the method of erasing the garbage and the degree of erasure are written. The dust erasure date and time may be automatically set when the process shifts to the next dust erasure.
[0056]
When the selection of dust and the erasure of dust as described above are performed for all dust marked with the dust mark 4, the dust erasing operation is completed (step S312).
[0057]
When a priority is set for each piece of dust information 221, dust is displayed in an enlarged manner in descending order of priority, and dust elimination is performed, and efficient dust elimination is performed.
[0058]
Further, the display color of the dust mark 4 corresponding to the dust information 221 in which the date and time of completion of the dust erasing operation is set by the dust mark display control unit 34 so that the operator can easily recognize the progress of the dust erasing operation. Be changed. Such a change in the display of the dust mark 4 may be of any type as long as it is possible to recognize that the dust has been erased. For example, the dust mark 4 may have a fixed shape such as a “circle”. In some cases, the shape may be changed to another shape such as a “triangle”.
[0059]
When the dust erasing operation is completed, next, a dust erasing confirmation operation (step S4) for confirming the degree of dust erasing is performed. FIGS. 10, 11, and 13 are flowcharts showing the flow of the operation of the operator and the operation of the image processing apparatus 1 in the dust erasure confirmation operation.
[0060]
In the dust erasure check operation, similarly to the dust erasure operation, first, the image 8 is displayed on the display unit 15 (FIG. 10: step S311). When the dust erasure confirmation operation is performed subsequent to the dust elimination operation, the image 8 is already displayed, so that the display step is not required.
[0061]
Next, confirmation of dust removal described below is repeatedly performed on each dust mark 4 (step S312).
[0062]
Also in the confirmation of dust removal, the position where each dust was present is enlarged and displayed in order. This operation is the same as that of the dust erasing operation (steps S313 to S316, FIG. 11: steps S317 to S319). That is, the dust mark 4 is superimposed on the image 8 so as to be watermark-combined (step S314), and the operator selects the dust mark 4 or the dust information 221 to display the position of dust to be noticed (more precisely, the dust mark). Are displayed in an enlarged manner (steps S315 to S317). Further, when the dust mark 4 is watermark-synthesized with the image 8 or the like, it is possible to confirm the state of dust removal without hiding the dust mark 4, so that the hiding of the dust mark 4 is necessary. This is performed only in response (steps S318 and S319).
[0063]
When the position of the garbage of interest is enlarged and displayed, the operator checks the degree of erasure of the garbage (FIG. 13: step S420). Set the confirmation work completion date and time. Thus, the dust list management unit 31 stores the confirmation work completion date and time in the dust information 221 (steps S421 and S422, see FIG. 4).
[0064]
On the other hand, if the operator determines that the dust removal is incomplete, the operator inputs the setting of the return flag via the input unit 16, and the dust list management unit 31 sets the return flag in the dust information 221. (Steps S421 and S423, see FIG. 4).
[0065]
When the dust erasure check is performed for all dust marked with the dust mark 4, the dust erasure check operation is completed (step S312).
[0066]
The dust mark display control unit 34 changes the color or shape of the dust mark 4 corresponding to the dust information 221 in which the confirmation work completion date and time is set so that the progress of the work can be easily grasped in the dust erasure check work. Is done. Further, the color or shape of the dust mark 4 corresponding to the dust information 221 for which the return flag is set is also changed in order to easily grasp the state of the entire dust erasing operation. Such a change in the display of the dust mark 4 may be any change as long as it is changed in accordance with the contents of the dust information 221 which is changed in accordance with the progress of the work.
[0067]
When the erasure flag is set in any of the dust information 221 when the confirmation of the erasure of all the dust with the dust mark 4 is completed, the dust erasing operation is performed again (FIG. 8). : Step S5). At this time, since the display of the dust mark 4 corresponding to the dust information 221 for which the return flag is set has been changed as described above, the operator who performs the dust erasing operation can easily recognize dust to be corrected again. Can be.
[0068]
The configuration and operation of the image processing apparatus 1 have been described above. First, the image processing apparatus 1 generates dust information 221 for displaying the dust mark 4 for each dust found in the dust finding work. However, since the image is stored separately from the image 8, the display of the dust mark 4 can be controlled independently of the image 8 in the dust elimination work in the next step. This allows the operator to easily recognize dust to be erased at the time of dust removal work in the next step, thereby improving the work productivity of the dust removal work. In particular, even when the dust finding operation and the dust erasing operation are separated in time or performed by different operators, a smooth dust erasing operation can be performed.
[0069]
In addition, since the display of the dust mark 4 is changed every time the dust erasing operation or the dust erasing confirmation operation is completed or by setting the return flag, the progress of the dust erasing operation or the dust erasing confirmation operation can be easily grasped. The dust removal work after the return is also efficiently performed. In particular, even when the dust erasing operation and the dust erasing confirmation operation are separated in time or performed by different operators, a series of operations can be smoothly performed.
[0070]
In addition, when the dust mark 4 is displayed in the dust erasing operation or the dust erasing confirmation operation, the watermark synthesis is performed. Therefore, even when the dust mark 4 is displayed, the operator can recognize the dust state. Work efficiency is improved.
[0071]
Further, since the dust information 221 can be displayed in a list in the dust erasing operation or the dust erasing confirmation operation, the selection of the dust can be performed without omission.
[0072]
The display / non-display of the dust mark 4 and the list display / non-display of the dust information 221 may be performed as needed in the dust erasing work or the dust erasing confirmation work as needed.
[0073]
Further, in the image processing apparatus 1, the contents of the dust finding work, the dust erasing work, and the dust erasing confirmation work are always stored as the dust information 221. The work can be resumed from the interrupted state by saving it separately on the fixed disk 14 and reading it out to the memory 12 when the work is resumed.
[0074]
<2. Second Embodiment>
FIG. 14 is a diagram showing a configuration of an image processing system 5 according to the second embodiment of the present invention. In the first embodiment, the operator performs the dust finding work, the dust erasing work, and the dust erasing confirmation work in the image processing apparatus 1. However, in the image processing system 5, each operation is performed by a dedicated computer. Is being done. That is, the image processing system 5 includes, as computers, an image processing position input device 5a dedicated to dust detection work, an image processing device 5b dedicated to dust removal work, and a confirmation display device 5c dedicated to dust removal confirmation work as communication devices such as a LAN 51 or the like. It is configured to be connected via a.
[0075]
The LAN 51 is connected to a fixed disk 52 for storing the image 8 and the dust list 22 from which dust is to be erased.
[0076]
Each device has the same configuration as the configuration shown in FIG. 1, and the dust finding work (FIG. 9) shown in the first embodiment is performed by the image processing position input device 5a, and the dust erasing confirmation work is performed. (FIGS. 10 to 12) are performed in the image processing device 5b, and the dust erasure confirmation operation (FIGS. 10, 11, and 13) is performed in the display device for confirmation 5c.
[0077]
Further, a dust list 22 which is a list of dust information 221 generated or changed in each device is stored or read out on the fixed disk 52 as appropriate.
[0078]
In order to make each computer function as a dedicated device, a program is read from each of the recording media 9a, 9b, and 9c into each computer.
[0079]
As described above, in the image processing system 5, the dust finding operation, the dust erasing operation, and the dust erasing confirmation operation can be performed by the separate devices. Therefore, when each operation is performed by a different operator, the operator performs the operation on his or her own computer. Can be performed, and the productivity of work in the case of division of labor can be improved.
[0080]
<3. Modification>
The embodiment according to the present invention has been described above. However, the present invention is not limited to the above embodiment, and various modifications are possible.
[0081]
For example, in the above-described embodiment, an image processing operation called dust erasing operation has been described as an example, but the present invention can be used for various processing operations such as other correction, cutout, and color correction of an image. In this case, the position to be processed corresponds to the position where dust is present in the above embodiment, and the processing mark corresponds to the dust mark 4. Then, information on the processing is stored as appropriate independently of the image, similarly to the dust information 221 in the above embodiment.
[0082]
Further, in the above-described embodiment, as described in FIG. 8, the dust finding operation, the dust erasing operation, and the dust erasing confirmation operation are performed in order, but the order of these operations may be changed as necessary. For example, the dust erasing work and the dust erasing confirmation work may be performed successively for each garbage. You may.
[0083]
Further, in the above-described embodiment, in the dust finding operation, the operator inputs the position of the dust while looking at the image 8 displayed on the display unit 15. However, the dust is found by finding the pixel value of the specific pixel and the surroundings. May be automatically performed based on the difference between the pixel value and the pixel value. That is, the dust information 221 may be automatically prepared. In addition, only the detection of dust is automatically performed, and whether or not the automatically generated dust information 221 should be registered in the dust list 22 is checked one by one while referring to the position of the found dust. May be.
[0084]
Further, the case where the dust erasing operation is automatically performed in the above embodiment has been described. However, the dust information 221 is provided with an automatic dust erasing parameter. Only the image processing apparatus 1 may execute automatic erasure. Further, by changing the display of the dust mark 4 according to the automatic erasure parameter, the operator can easily confirm the degree of correction of the automatically erased dust.
[0085]
【The invention's effect】
According to the first to twelfth aspects of the present invention, it is possible to easily grasp the progress of the work of confirming the processing.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of the image processing apparatus according to the first embodiment from a functional aspect.
FIG. 3 is a diagram showing the contents of a dust list.
FIG. 4 is a diagram illustrating contents of dust information.
FIG. 5 is a diagram illustrating a state of dust in an image.
FIG. 6 is a diagram illustrating a state of a dust mark displayed so as to be superimposed on an image.
FIG. 7 is a diagram illustrating an example of a list window.
FIG. 8 is a flowchart showing the overall flow of work in dust removal.
FIG. 9 is a flowchart showing a flow of an operation of the operator and an operation of the image processing apparatus in the dust finding operation.
FIG. 10 is a flowchart showing the flow of the operation of the operator and the operation of the image processing apparatus in the dust erasing operation and the dust erasing confirmation operation.
FIG. 11 is a flowchart showing a flow of dust removal work and dust removal confirmation work performed by an operator and the operation of the image processing apparatus.
FIG. 12 is a flowchart showing the flow of the operation of the operator and the operation of the image processing apparatus in the dust erasing operation.
FIG. 13 is a flowchart showing the flow of the operation of the operator and the operation of the image processing apparatus in the dust erasure confirmation operation.
FIG. 14 is a diagram showing a configuration of an image processing system according to a second embodiment of the present invention.
[Explanation of symbols]
1 Image processing device
4 Dust mark
5a Image processing position input device
5b Image processing device
5c Display for confirmation
8 images
9, 9a Recording medium
11 CPU
12 memory
14 fixed disk
15 Display
16 Input section
21 programs
31 Dust List Management Department
32 Dust mark setting section
33 Image processing unit
34 Dust mark display controller
36 Dust list display controller
38 Garbage erasing unit
221 Dust information
S1, S22, S23 Step

Claims (12)

画像加工装置であって、An image processing device,
対象画像を表示する画像表示手段と、  Image display means for displaying the target image;
対象画像内での各加工位置を示す第1の情報を記憶する手段と、  Means for storing first information indicating each processing position in the target image;
前記第1の情報に基づいて、各加工位置における加工用マークを画像加工が施された対象画像に重ねて前記画像表示手段に表示させる表示制御手段と、  Display control means for displaying, on the image display means, a processing mark at each processing position on the target image on which image processing has been performed, based on the first information;
各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置における加工が適切に行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手段と、  An input from the operator is received as to whether or not appropriate processing is performed at each processing position, and second information indicating whether or not processing is appropriately performed at each processing position is input to the input from the operator. Means for setting based on
を備え、With
前記表示制御手段は、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更することを特徴とする画像加工装置。  The image processing apparatus, wherein the display control means changes a display state of a processing mark at each processing position based on the first information and the second information.
画像加工装置であって、An image processing device,
対象画像内での各加工位置の入力を受け付ける手段と、  Means for receiving an input of each processing position in the target image;
対象画像内での各加工位置を示す第1の情報を記憶する手段と、  Means for storing first information indicating each processing position in the target image;
前記第1の情報に基づいて、各加工位置における加工用マークを前記対象画像に重ねて表示させる手段と、  Means for displaying a processing mark at each processing position on the target image based on the first information;
前記加工用マークに対応する部分において画像加工を行う手段と、  Means for performing image processing on a portion corresponding to the processing mark,
前記第1の情報に基づいて、各加工位置における加工用マークを前記画像加工が施された対象画像に重ねて表示させる手段と、  Means for displaying a processing mark at each processing position on the target image on which the image processing has been performed, based on the first information;
各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置において適切な加工が行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手段と、  An input from the operator as to whether or not appropriate processing is performed at each processing position is received, and second information indicating whether or not appropriate processing is performed at each processing position is input to the input from the operator. Means for setting based on
前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する手段と、  Means for changing a display state of a processing mark at each processing position based on the first information and the second information;
を備えることを特徴とする画像加工装置。An image processing apparatus comprising:
請求項1または請求項2に記載の画像加工装置であって、The image processing apparatus according to claim 1 or 2,
加工用マークが表示される際には、対象画像と加工用マークとが透かし合成されることを特徴とする画像加工装置。  An image processing apparatus, wherein a target image and a processing mark are watermark-combined when a processing mark is displayed.
請求項1から請求項3のいずれかに記載の画像加工装置であって、The image processing apparatus according to claim 1, wherein:
加工位置ごとの加工情報をリスト表示する手段、  Means for displaying a list of processing information for each processing position,
をさらに備えることを特徴とする画像加工装置。An image processing apparatus, further comprising:
画像加工システムであって、
対象画像を表示する画像表示手段と、
対象画像内での各加工位置を示す第1の情報を記憶する手段と、
前記第1の情報に基づいて、各加工位置における加工用マークを画像加工が施された対象画像に重ねて前記画像表示手段に表示させる表示制御手段と、
各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置における加工が適切に行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手段と、
を備え、
前記表示制御手段は、前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更することを特徴とする画像加工システム。
An image processing system,
Image display means for displaying the target image;
Means for storing first information indicating each processing position in the target image;
Display control means for displaying, on the image display means, a processing mark at each processing position on the target image on which image processing has been performed, based on the first information;
An input from the operator as to whether or not appropriate processing is performed at each processing position is received, and second information indicating whether or not processing is appropriately performed at each processing position is input to the input from the operator. Means for setting based on
With
The image processing system, wherein the display control means changes a display state of a processing mark at each processing position based on the first information and the second information.
画像加工システムであって、An image processing system,
対象画像内での各加工位置の入力を受け付ける手段と、  Means for receiving an input of each processing position in the target image;
対象画像内での各加工位置を示す第1の情報を記憶する手段と、  Means for storing first information indicating each processing position in the target image;
前記第1の情報に基づいて、各加工位置における加工用マークを前記対象画像に重ねて表示させる手段と、  Means for displaying a processing mark at each processing position on the target image based on the first information;
前記加工用マークに対応する部分において画像加工を行う手段と、  Means for performing image processing on a portion corresponding to the processing mark,
前記第1の情報に基づいて、各加工位置における加工用マークを前記画像加工が施され  Based on the first information, the processing mark at each processing position is subjected to the image processing. た対象画像に重ねて表示させる手段と、Means for superimposing and displaying the image on the target image,
各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置において適切な加工が行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手段と、  An input from the operator as to whether or not appropriate processing is performed at each processing position is received, and second information indicating whether or not appropriate processing is performed at each processing position is input to the input from the operator. Means for setting based on
前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する手段と、  Means for changing a display state of a processing mark at each processing position based on the first information and the second information;
を備えることを特徴とする画像加工システム。An image processing system comprising:
請求項5または請求項6に記載の画像加工システムであって、The image processing system according to claim 5 or 6, wherein
加工用マークが表示される際には、対象画像と加工用マークとが透かし合成されることを特徴とする画像加工システム。  An image processing system wherein a target image and a processing mark are watermark-combined when the processing mark is displayed.
請求項5から請求項7のいずれかに記載の画像加工システムであって、The image processing system according to claim 5, wherein:
加工位置ごとの加工情報をリスト表示する手段、  Means for displaying a list of processing information for each processing position,
をさらに備えることを特徴とする画像加工システム。An image processing system, further comprising:
画像加工方法であって、An image processing method,
対象画像内での各加工位置を示す第1の情報を記憶する工程と、  Storing first information indicating each processing position in the target image;
前記第1の情報に基づいて、各加工位置における加工用マークを画像加工が施された対象画像に重ねて所定の画像表示手段に表示させる工程と、  A step of displaying a processing mark at each processing position on a predetermined image display unit in a manner superimposed on the target image on which the image processing has been performed, based on the first information;
各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置における加工が適切に行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する工程と、  An input from the operator is received as to whether or not appropriate processing is performed at each processing position, and second information indicating whether or not processing is appropriately performed at each processing position is input to the input from the operator. Setting based on:
前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する工程と、  Changing the display state of the processing mark at each processing position based on the first information and the second information;
を含むことを特徴とする画像加工方法。An image processing method comprising:
画像加工方法であって、An image processing method,
対象画像内での各加工位置の入力を受け付ける工程と、  Receiving an input of each processing position in the target image;
対象画像内での各加工位置を示す第1の情報を記憶する工程と、  Storing first information indicating each processing position in the target image;
前記第1の情報に基づいて、各加工位置における加工用マークを前記対象画像に重ねて表示させる工程と、  A step of displaying a processing mark at each processing position on the target image based on the first information;
前記加工用マークに対応する部分において画像加工を行う工程と、  Performing image processing on a portion corresponding to the processing mark;
前記第1の情報に基づいて、各加工位置における加工用マークを前記画像加工が施された対象画像に重ねて表示させる工程と、  A step of displaying a processing mark at each processing position on the target image on which the image processing has been performed, based on the first information;
各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置において適切な加工が行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する工程と、  An input from the operator as to whether or not appropriate processing is performed at each processing position is received, and second information indicating whether or not appropriate processing is performed at each processing position is input to the input from the operator. Setting based on:
前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する工程と、  Changing the display state of the processing mark at each processing position based on the first information and the second information;
を含むことを特徴とする画像加工方法。An image processing method comprising:
コンピュータに、On the computer,
対象画像内での各加工位置を示す第1の情報を記憶する手順と、  A procedure for storing first information indicating each processing position in the target image;
前記第1の情報に基づいて、各加工位置における加工用マークを画像加工が施された対象画像に重ねて所定の画像表示手段に表示させる手順と、  A step of displaying a processing mark at each processing position on a target image on which image processing has been performed based on the first information and displaying the processing mark on a predetermined image display unit;
各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置における加工が適切に行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手順と、  An input from the operator is received as to whether or not appropriate processing is performed at each processing position, and second information indicating whether or not processing is appropriately performed at each processing position is input to the input from the operator. Steps to set based on
前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する手順と、  Changing a display state of a processing mark at each processing position based on the first information and the second information;
を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。And a computer-readable recording medium on which a program for executing the program is recorded.
コンピュータに、On the computer,
対象画像内での各加工位置の入力を受け付ける手順と、  A procedure for receiving input of each processing position in the target image,
対象画像内での各加工位置を示す第1の情報を記憶する手順と、  A procedure for storing first information indicating each processing position in the target image;
前記第1の情報に基づいて、各加工位置における加工用マークを前記対象画像に重ねて表示させる手順と、  A step of superimposing a processing mark at each processing position on the target image based on the first information;
前記加工用マークに対応する部分において画像加工を行う手順と、  A procedure for performing image processing on a portion corresponding to the processing mark;
前記第1の情報に基づいて、各加工位置における加工用マークを前記画像加工が施された対象画像に重ねて表示させる手順と、  A procedure for displaying a processing mark at each processing position on the target image on which the image processing has been performed, based on the first information;
各加工位置において適切な加工が行われているか否かについてオペレータからの入力を受け付け、各加工位置において適切な加工が行われているか否かを示す第2の情報を前記オペレータからの前記入力に基づいて設定する手順と、  An input from the operator as to whether or not appropriate processing is performed at each processing position is received, and second information indicating whether or not appropriate processing is performed at each processing position is input to the input from the operator. Steps to set based on
前記第1の情報と前記第2の情報とに基づいて、各加工位置における加工用マークの表示状態を変更する手順と、  Changing a display state of a processing mark at each processing position based on the first information and the second information;
を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。And a computer-readable recording medium on which a program for executing the program is recorded.
JP22443498A 1998-08-07 1998-08-07 Image processing apparatus, image processing system, image processing method, and computer-readable recording medium Expired - Fee Related JP3578917B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22443498A JP3578917B2 (en) 1998-08-07 1998-08-07 Image processing apparatus, image processing system, image processing method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22443498A JP3578917B2 (en) 1998-08-07 1998-08-07 Image processing apparatus, image processing system, image processing method, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2000057362A JP2000057362A (en) 2000-02-25
JP3578917B2 true JP3578917B2 (en) 2004-10-20

Family

ID=16813723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22443498A Expired - Fee Related JP3578917B2 (en) 1998-08-07 1998-08-07 Image processing apparatus, image processing system, image processing method, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP3578917B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100886337B1 (en) * 2006-11-23 2009-03-02 삼성전자주식회사 Apparatus for simultaneously saving the areas selected on image and apparatus for making documents by automatically recording image informations
JP6879065B2 (en) * 2017-06-13 2021-06-02 株式会社デンソー Vehicle photography equipment

Also Published As

Publication number Publication date
JP2000057362A (en) 2000-02-25

Similar Documents

Publication Publication Date Title
JP3763389B2 (en) Image data editing operation method and information processing apparatus
US6600500B1 (en) Multi-window display system and method for displaying and erasing window
US8677242B2 (en) Dynamic positioning of timeline markers for efficient display
JP5658552B2 (en) Display control apparatus, control method therefor, program, and recording medium
US7742095B2 (en) Information processing apparatus, method and storage medium
JPH0388087A (en) Document reader
JP3578917B2 (en) Image processing apparatus, image processing system, image processing method, and computer-readable recording medium
US20020051009A1 (en) Method and apparatus for extracting object from video image
JPH0395684A (en) Graphic form processing system
JP3943623B2 (en) Image editing apparatus and control method thereof
JP3890096B2 (en) Image editing system
JP2003204510A (en) Image processing apparatus and method, and storage medium
JP5779422B2 (en) Display system and display program
JP5783030B2 (en) Image processing program and image processing apparatus
JP5799815B2 (en) Image processing program and image processing apparatus
TW200939153A (en) Line drawing processor and storage medium
CN115509664A (en) Multi-frame large-screen visualization method, system, equipment and storage medium
JP2003162350A (en) Template data displaying method
JP2002269495A (en) Character recognition device and character recognition program
JP4047368B2 (en) Image editing apparatus and control method thereof
CN117666906A (en) Content extraction method, device and computer storage medium
JP2004326265A (en) Image processing method and image processor
JP2771959B2 (en) Image processing method
JP2000040159A (en) Image working device, image working method and computer readable recording medium
JPH0816809A (en) Drawing system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040714

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080723

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080723

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100723

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100723

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110723

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110723

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees