JP2008098768A - Image processing program, image processing method and image processing system - Google Patents

Image processing program, image processing method and image processing system Download PDF

Info

Publication number
JP2008098768A
JP2008098768A JP2006275431A JP2006275431A JP2008098768A JP 2008098768 A JP2008098768 A JP 2008098768A JP 2006275431 A JP2006275431 A JP 2006275431A JP 2006275431 A JP2006275431 A JP 2006275431A JP 2008098768 A JP2008098768 A JP 2008098768A
Authority
JP
Japan
Prior art keywords
data
partial data
image processing
server
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006275431A
Other languages
Japanese (ja)
Inventor
Noriaki Ozawa
憲秋 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006275431A priority Critical patent/JP2008098768A/en
Publication of JP2008098768A publication Critical patent/JP2008098768A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Storage Device Security (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide image processing technology for surely protecting security and privacy when image processing data are transferred between a server and a terminal connected to a network such as the Internet. <P>SOLUTION: A computer executes steps of: generating a plurality of partial data 41a to 41d by dividing image data 40; generating position information indicative of a position relationship between the partial data 41a to 41d and other parts 41a to 41d; making identification information related to the position information; imparting the identification information to the partial data 41a to 41d; and transmitting the partial data 41a to 41d imparted with the identification information to the server 10. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理プログラム、画像処理方法及び画像処理システムに関する。   The present invention relates to an image processing program, an image processing method, and an image processing system.

従来、クライアント端末から画像データ又は映像データを、インターネットを介してサーバに送信し、サーバによって所定の画像処理が施された画像データ又は映像データを、クライアント端末で受信する画像処理技術が提案されている(例えば、特許文献1〜5参照。)。   Conventionally, there has been proposed an image processing technique in which image data or video data is transmitted from a client terminal to a server via the Internet, and image data or video data subjected to predetermined image processing by the server is received by the client terminal. (For example, refer to Patent Documents 1 to 5.)

また、最近、画像処理以外に、各種のソフトウェア機能をインターネット上に公開し、インターネットに接続された端末上のウェブブラウザで利用できるサービスが提供されている。   Recently, in addition to image processing, various software functions are disclosed on the Internet, and services that can be used by a web browser on a terminal connected to the Internet have been provided.

これらのサービスで提供されるソフトウェア機能としては、ワードプロセッサ、表計算、プレゼンテーションなどがセットになったオフィススイートと呼ばれるソフトウェア機能などがある。   Software functions provided by these services include a software function called an office suite in which a word processor, spreadsheet, presentation, and the like are set.

従来、インターネットなどのネットワークを介して画像処理を行う場合、データ通信経路上での暗号化や、ファイルシステム上でのデータの暗号化などを行うことにより、セキュリティ及びプライバシーを保護するのが一般的であった。
特開2005−267129号公報 特開平11−112569号公報 特開2006−115001号公報 特開2001−14806号公報 特開2004−13387号公報
Conventionally, when image processing is performed via a network such as the Internet, it is common to protect security and privacy by performing encryption on a data communication path or data encryption on a file system. Met.
JP 2005-267129 A JP 11-1112569 A JP 2006-115001 A Japanese Patent Laid-Open No. 2001-14806 JP 2004-13387 A

しかしながら、従来のインターネットなどのネットワークに接続されたサーバによって画像処理を行う技術では、クライアント端末からサーバに送られた画像データが、サーバの管理者や第三者によって無断で閲覧、利用されるおそれがあった。この場合には、画像データに関するセキュリティー及びプライバシーが侵されるおそれがある。   However, in the conventional technology that performs image processing using a server connected to a network such as the Internet, image data sent from the client terminal to the server may be viewed and used without permission by the server administrator or a third party. was there. In this case, there is a risk that security and privacy relating to image data may be violated.

本発明は、このような問題に鑑みなされたもので、インターネットなどのネットワークに接続されたサーバ及び端末間で画像処理データを送受信する際に、セキュリティー及びプライバシーを確実に保護できる画像処理技術の提供を課題とする。   The present invention has been made in view of such problems, and provides an image processing technique capable of reliably protecting security and privacy when transmitting / receiving image processing data between a server and a terminal connected to a network such as the Internet. Is an issue.

本発明は、前記課題を解決するため、以下の手段を採用した。
すなわち、本発明は、
画像データ又は映像データをネットワークを介して画像処理機能を有するサーバに送信し、前記サーバから所定の画像処理が施された前記画像データ、前記映像データ又はその他の処理結果を受信するコンピュータに実行させる画像処理プログラムであって、
前記画像データ又は前記映像データを分割して複数の部分データを生成するステップと、
前記部分データにおける他の前記部分データとの位置関係を示す位置情報を生成するステップと、
前記位置情報に識別情報を関連付けるステップと、
前記部分データに前記識別情報を付与するステップと、
前記識別情報が付与された前記部分データを、前記ネットワークを介して前記サーバに送信するステップと、
を実行させる。
The present invention employs the following means in order to solve the above problems.
That is, the present invention
Image data or video data is transmitted to a server having an image processing function via a network, and is executed by a computer that receives the image data, the video data, or other processing results subjected to predetermined image processing from the server. An image processing program,
Dividing the image data or the video data to generate a plurality of partial data;
Generating position information indicating a positional relationship with the other partial data in the partial data;
Associating identification information with the location information;
Giving the identification information to the partial data;
Transmitting the partial data provided with the identification information to the server via the network;
Is executed.

本発明では、画像データ又は映像データを分割して複数の部分データを作成し、各部分データの位置情報に識別情報を関連付ける。各部分データは、識別情報を付与して、画像処理サーバに送信する。   In the present invention, image data or video data is divided to create a plurality of partial data, and identification information is associated with position information of each partial data. Each partial data is given identification information and transmitted to the image processing server.

従って、画像処理サーバ側では、画像データ又は映像データを全体として認識できないので、セキュリティ及びプライバシーの保護が確実になる。なお、上記画像処理には、映像処理も含まれる。   Accordingly, since the image processing server cannot recognize the image data or the video data as a whole, security and privacy can be surely protected. Note that the image processing includes video processing.

ここで、前記サーバから、前記所定の画像処理が施された前記部分データを、前記ネットワークを介して前記サーバから受信するステップと、
受信した前記部分データに含まれる前記識別情報から、前記部分データの前記位置情報を求めるステップと、
前記部分データを前記位置情報に基づいて結合し、前記画像データ、前記映像データ又はその他の処理結果を生成するステップと、
を更に実行させることができる。
Here, from the server, receiving the partial data subjected to the predetermined image processing from the server via the network;
Obtaining the position information of the partial data from the identification information included in the received partial data;
Combining the partial data based on the position information to generate the image data, the video data or other processing results;
Can be further executed.

このように、サーバから受信した画像処理済みの部分データを、クライアント端末で結合して画像データ、映像データ又はその他の処理結果を生成することにより、サーバー側に対するセキュリティー及びプライバシーの保護がより確実になる。   Thus, by combining the image-processed partial data received from the server at the client terminal to generate image data, video data, or other processing results, security and privacy protection for the server side can be ensured. Become.

また、前記部分データを送信するステップは、前記部分データをランダムに送信するのが好ましい。これにより、セキュリティー及びプライバシーの保護がより強固になる。   In the step of transmitting the partial data, the partial data is preferably transmitted at random. Thereby, the protection of security and privacy becomes stronger.

また、本発明は、
画像データ又は映像データをネットワークを介して画像処理機能を有するサーバに送信し、前記サーバから所定の画像処理が施された前記画像データ、前記映像データ又はその他の処理結果を受信するコンピュータが実行する画像処理方法であって、
前記画像データ又は前記映像データを分割して複数の部分データを生成するステップと、
前記部分データにおける他の前記部分データとの位置関係を示す位置情報を生成するステップと、
前記位置情報に識別情報を関連付けるステップと、
前記部分データに前記識別情報を付与するステップと、
前記識別情報が付与された前記部分データを、前記ネットワークを介して前記サーバに送信するステップと、
を実行する。
The present invention also provides:
This is executed by a computer that transmits image data or video data to a server having an image processing function via a network, and receives the image data, video data, or other processing results subjected to predetermined image processing from the server. An image processing method comprising:
Dividing the image data or the video data to generate a plurality of partial data;
Generating position information indicating a positional relationship with the other partial data in the partial data;
Associating identification information with the location information;
Giving the identification information to the partial data;
Transmitting the partial data provided with the identification information to the server via the network;
Execute.

また、本発明は、
画像データ又は映像データをネットワークを介して画像処理機能を有するサーバに送信し、前記サーバから所定の画像処理が施された前記画像データ、前記映像データ又はその他の処理結果を受信する画像処理システムであって、
前記画像データ又は前記映像データを分割して複数の部分データを生成する手段と、
前記部分データにおける他の前記部分データとの位置関係を示す位置情報を生成する手段と、
前記位置情報に識別情報を関連付ける手段と、
前記部分データに前記識別情報を付与する手段と、
前記識別情報が付与された前記部分データを、前記ネットワークを介して前記サーバに送信する手段と、
を備える。
The present invention also provides:
An image processing system that transmits image data or video data to a server having an image processing function via a network and receives the image data, the video data, or other processing results subjected to predetermined image processing from the server. There,
Means for dividing the image data or the video data to generate a plurality of partial data;
Means for generating position information indicating a positional relationship with the other partial data in the partial data;
Means for associating identification information with the location information;
Means for giving the identification information to the partial data;
Means for transmitting the partial data provided with the identification information to the server via the network;
Is provided.

また、本発明は、コンピュータその他の装置、機械等に、以上のいずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録したものであってもよい。   Further, the present invention may be a program in which a computer or other device, machine, or the like realizes any one of the functions described above is recorded on a computer-readable recording medium.

ここで、コンピュータが読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータから読み取ることができる記録媒体をいう。   Here, the computer-readable recording medium refers to a recording medium that accumulates information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from the computer. .

このような記録媒体のうちコンピュータから取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD-ROM、CD-R/W、DVD、DAT、8mmテープ、メモリカード等がある。   Examples of such a recording medium that can be removed from the computer include a flexible disk, a magneto-optical disk, a CD-ROM, a CD-R / W, a DVD, a DAT, an 8 mm tape, and a memory card.

また、コンピュータに固定された記録媒体としてハードディスクやROM(リードオンリーメモリ)等がある。   Further, there are a hard disk, a ROM (read only memory), and the like as a recording medium fixed to the computer.

本発明によれば、画像データ又は映像データを分割して複数の部分データを生成し、各部分データにその位置情報に関連付けられた識別情報を付与してサーバに送信する。   According to the present invention, image data or video data is divided to generate a plurality of partial data, and identification information associated with the position information is assigned to each partial data and transmitted to the server.

従って、サーバ側又はネットワークに接続された他の端末では、画像データ又は映像データの全体を認識するのが困難であり、セキュリティー及びプライバシーを確実に保護できる。   Accordingly, it is difficult for the other terminal connected to the server side or the network to recognize the entire image data or video data, and security and privacy can be reliably protected.

以下、本発明に係る画像処理プログラム、画像処理方法及び画像処理システムについて、図1から図9を参照して詳細に説明する。なお、以下の説明では、画像処理に映像処理も含まれるものとする。   Hereinafter, an image processing program, an image processing method, and an image processing system according to the present invention will be described in detail with reference to FIGS. In the following description, it is assumed that image processing includes video processing.

<第1の実施の形態>
図1は、本発明に係る第1実施形態の画像処理システム1を示す。この画像処理システム1は、複数の画像処理機能を有するサーバ10と、これらのサーバ10に、インターネットなどのネットワーク11を介して接続されたコンピュータであるクライアント端末12とを備えている。
<First Embodiment>
FIG. 1 shows an image processing system 1 according to the first embodiment of the present invention. The image processing system 1 includes a server 10 having a plurality of image processing functions, and a client terminal 12 that is a computer connected to the server 10 via a network 11 such as the Internet.

サーバ10は、送受信部21と、所定の画像処理を行う画像処理部22とを備えている。このサーバ10は、後述のように、クライアント端末12から受信した部分データ41a〜41d(図2参照)に、所定の画像処理を施した後、クライアント端末12に送信する。この際、部分データに含まれているID(識別情報)は、そのまま部分データに含めて送信する。   The server 10 includes a transmission / reception unit 21 and an image processing unit 22 that performs predetermined image processing. As will be described later, the server 10 performs predetermined image processing on the partial data 41a to 41d (see FIG. 2) received from the client terminal 12, and then transmits the data to the client terminal 12. At this time, the ID (identification information) included in the partial data is transmitted as it is included in the partial data.

画像処理部22が行う所定の画像処理としては、次のような処理がある。一般的なオペレータによる画像処理として、ぼかし、尖鋭化、エッジ抽出、モザイク処理、エンボス、オペレータのサイズに応じたマージンをつけた分割処理などがある。   The predetermined processing performed by the image processing unit 22 includes the following processing. General image processing by an operator includes blurring, sharpening, edge extraction, mosaic processing, embossing, and division processing with a margin according to the operator size.

また、色変換処理として、2階調化、グレー化、減色・増色、チャンネル分解、色空間変換など、閾値や基準値をパラメータとして指定することで行う変換処理がある。   Further, as the color conversion processing, there is conversion processing performed by specifying threshold values and reference values as parameters, such as two-gradation, graying, color reduction / color increase, channel separation, and color space conversion.

また、スケール変換処理として、拡大、縮小などがある。更に、認識処理として、文字認識、音声認識などがある。   Further, scale conversion processing includes enlargement and reduction. Further, the recognition processing includes character recognition, voice recognition, and the like.

また、セキュリティを向上するための応用処理として、画像を回転又は反転させて向きを分からなくしてからサーバに送る処理、画像分割の形を変える処理(矩形以外にライン単位、円形、三角形など)がある。また、映像(動画)処理として、カット検出、CM(Commercial Message)検出などがある。   In addition, as an application process for improving security, there is a process of rotating or inverting an image to send it to the server after not knowing its orientation, and a process of changing the shape of the image division (in units of lines, circles, triangles, etc. in addition to rectangles) is there. Video (moving image) processing includes cut detection, CM (Commercial Message) detection, and the like.

なお、上記各種の画像処理は一般的に行われているので、その内容及びこれを達成するための構成についての詳細な説明を省略する。   In addition, since the above-mentioned various image processes are generally performed, the detailed description about the content and the structure for achieving this is abbreviate | omitted.

クライアント端末12は、処理範囲指定部31、部分データを生成する手段としての分割処理部32、部分データに識別情報を付与する手段としてのID付与部33、部分データの位置情報を生成する手段及び位置情報と識別情報とを関連付ける手段としてのID・位置情報関連付け部34、記憶部35、受信した部分データを再構成(再結合)して画像データを生成する手段としての再構成部36、表示部37、及び送受信部38を備えている。   The client terminal 12 includes a processing range specifying unit 31, a division processing unit 32 as a unit for generating partial data, an ID adding unit 33 as a unit for adding identification information to the partial data, a unit for generating position information of the partial data, and ID / position information associating section 34 as means for associating position information and identification information, storage section 35, reconstruction section 36 as means for generating image data by reconstructing (recombining) the received partial data, display A unit 37 and a transmission / reception unit 38 are provided.

処理範囲指定部31は、画像処理を施すべきデータが画像データの場合は、所定の画像処理を施すべき処理範囲を指定する。また、画像処理を施すべきデータが映像データの場合は、画像処理を施すべき時間範囲を指定する。   When the data to be subjected to image processing is image data, the processing range designation unit 31 designates a processing range to be subjected to predetermined image processing. When the data to be subjected to image processing is video data, the time range to be subjected to image processing is designated.

この処理範囲指定部31は、ユーザがユーザインターフェースによって画像データの処理範囲、又は映像データの時間範囲を指定するか、又は自動的に処理範囲又は時間範囲を指定する。   The processing range designation unit 31 allows the user to designate a processing range of image data or a time range of video data through a user interface, or automatically designates a processing range or a time range.

分割処理部32は、処理範囲指定部31で指定された画像データの処理範囲又は映像データの時間範囲を分割して、複数の部分データを生成する。部分データの大きさは、自動的に決定し、又はユーザが指定するようにしても良い。   The division processing unit 32 divides the image data processing range or the video data time range specified by the processing range specifying unit 31 to generate a plurality of partial data. The size of the partial data may be automatically determined or specified by the user.

部分データには、隣接する部分と重なり合う部分、すなわち冗長部分を含めるのが好ましい。このように部分データに冗長部分を含めた場合は、サーバ10で画像処理が施された部分データをクライアント端末12で再結合する際に冗長部分を除去する。   The partial data preferably includes a portion that overlaps an adjacent portion, that is, a redundant portion. As described above, when a redundant portion is included in the partial data, the redundant portion is removed when the partial data subjected to the image processing by the server 10 is recombined by the client terminal 12.

画像データの処理範囲又は映像データの時間範囲を分割する際には、処理範囲又は時間範囲を元の画像データ又は映像データ上に重ねて表示する。これにより、ユーザが分割サイズを確認、変更できる。   When the processing range of image data or the time range of video data is divided, the processing range or time range is displayed over the original image data or video data. Thereby, the user can confirm and change the division size.

ID付与部33は、分割処理部32で生成された部分に、一意なID(識別情報)を付与する。このIDは、部分中にコメントとして埋め込み、又はファイル名などに埋め込むことができる。   The ID assigning unit 33 assigns a unique ID (identification information) to the part generated by the division processing unit 32. This ID can be embedded as a comment in the part or embedded in a file name or the like.

ID・位置情報関連付け部34は、各部分データの他の部分データとの位置関係を示す位置情報を生成する。また、各IDと位置情報とを関連付ける。また、記憶部35は、IDと位置情報との関連付け情報などを記憶する。   The ID / position information associating unit 34 generates position information indicating a positional relationship between each partial data and other partial data. Further, each ID is associated with position information. The storage unit 35 also stores association information between the ID and the position information.

再構成部36は、サーバ10から受信した画像処理済みの部分データに含まれるID
を抽出し、このIDに対応する位置情報を記憶部35に記憶されているID・位
置情報関連テーブルなどから求める。
The reconstruction unit 36 includes an ID included in the image-processed partial data received from the server 10.
And the position information corresponding to this ID is stored in the storage unit 35 as the ID / position.
It is obtained from the position information related table.

そして、各部分データをその位置情報に基づいて再構成(再結合)する。これにより、画像処理が施された画像データ又は映像データを構成する。   Then, each partial data is reconfigured (recombined) based on the position information. Thus, image data or video data subjected to image processing is configured.

表示部37は、画像処理を施す前又は後の画像データ若しくは映像データ、画像処理を施す前又は後の部分データなどを表示する。   The display unit 37 displays image data or video data before or after image processing, partial data before or after image processing, and the like.

送受信部38は、部分データをサーバ10に送信する。また、サーバ10から送信された画像処理済みの部分データを受信する。   The transmission / reception unit 38 transmits the partial data to the server 10. Also, the image-processed partial data transmitted from the server 10 is received.

この送受信部38は、複数のサーバ10のうち、予め決められたサーバ10を自動的に選択し、又はユーザがサーバ10を指定して、部分データを送受信する。ここでは、一台のサーバ10に部分データを集中して送受信することなく、複数のサーバ10に部分データを分散して送信する。   The transmission / reception unit 38 automatically selects a predetermined server 10 from among the plurality of servers 10, or the user designates the server 10 to transmit / receive partial data. Here, the partial data is distributed and transmitted to the plurality of servers 10 without concentrating and transmitting the partial data to one server 10.

また、部分データをサーバ10に送信する際には、部分データの空間的配置が連続しないように、ランダムに送信する   Moreover, when transmitting partial data to the server 10, it transmits at random so that the spatial arrangement of partial data may not continue.

これにより、サーバ10側又はネットワーク11上に接続された他の端末側で、受信した部分データを受信の順番に並べたとしても、元の画像データ又は映像データを再現することはできない。従って、セキュリティー及びプライバシーの保護がより確実になる。   Thus, even if the received partial data is arranged in the order of reception on the server 10 side or another terminal side connected on the network 11, the original image data or video data cannot be reproduced. Therefore, security and privacy protection are more reliable.

次に、この画像処理システム1による画像処理方法について説明する。なお、ここでは、画像データに所定の画像処理を施す場合について説明する。   Next, an image processing method by the image processing system 1 will be described. Here, a case where predetermined image processing is performed on the image data will be described.

先ず、図2に示すように、クライアント端末12によって、画像データ40のうち、画像処理すべき処理範囲41を指定される。   First, as shown in FIG. 2, a processing range 41 to be subjected to image processing is designated in the image data 40 by the client terminal 12.

次に、処理範囲41が分割されて、複数の部分データ41a〜41dが生成される。なお、図2では、説明を分かりやすくするために、処理範囲41を4個に分割する場合について示したが、分割数が多く部分データの面積が小さいほど、セキュリティ及びプライバシーの保護が確実になる。   Next, the processing range 41 is divided to generate a plurality of partial data 41a to 41d. In FIG. 2, for ease of explanation, the case where the processing range 41 is divided into four parts is shown. However, as the number of divisions increases and the area of partial data decreases, security and privacy protection are ensured. .

図3に示すように、部分データ41a〜41dには、冗長部分43,44が含まれている。本実施形態では、各部分データ41a〜41dに、隣接する部分データ41a〜41dの一部分が冗長部分43,44として含まれている。   As shown in FIG. 3, the partial data 41 a to 41 d include redundant portions 43 and 44. In the present embodiment, each of the partial data 41a to 41d includes a part of the adjacent partial data 41a to 41d as the redundant portions 43 and 44.

例えば、部分データ41aには、図4に示すように、画像データ40の処理範囲41を4等分した面積を有する実領域42と、隣接する部分データ41b,41c,41dの境界付近の一部分が冗長部分43,44,45として含まれている。   For example, in the partial data 41a, as shown in FIG. 4, a real region 42 having an area obtained by dividing the processing range 41 of the image data 40 into four equal parts and a portion near the boundary between the adjacent partial data 41b, 41c, and 41d are included. Redundant portions 43, 44, 45 are included.

同様に、部分データ41bにも、図5に示すように、実領域42、及び冗長部分43,44,45が含まれている。他の部分データ41c,41dも同様である。   Similarly, the partial data 41b includes a real area 42 and redundant portions 43, 44, and 45 as shown in FIG. The same applies to the other partial data 41c and 41d.

単純に、分割した個々の部分データに所定の画像処理を行った後、部分データを結合しただけでは、分割した境界部分で不連続な部分が生じてしまう。   Simply by performing predetermined image processing on each divided partial data and then combining the partial data, a discontinuous portion is generated at the divided boundary portion.

これを避けるために、空間的に重なりを持つように冗長に分割して処理し、結果を再構
成する際に、エッジとなる部分を利用しないようにするものである。
In order to avoid this, the processing is performed in a redundant manner so as to overlap spatially, and when the result is reconstructed, the edge portion is not used.

例えば、5ピクセル×5ピクセルの領域にぼかし処理をする場合、注目画素の周囲2ピクセル分の情報を使う。そこで、分割する際には実際に必要な領域の回りに2ピクセル分のマージンを持たせて分割して画像処理を行う。結果を再構成する際には、周囲2ピクセル分の情報を捨てる。   For example, when blurring a region of 5 pixels × 5 pixels, information for two pixels around the target pixel is used. Therefore, when the image is divided, image processing is performed with a margin of 2 pixels around the area actually required. When reconstructing the result, the information for the surrounding two pixels is discarded.

次に、各部分データ41a〜41dに、それぞれ異なる一意のIDが付与される。このIDはできるだけ第三者が推測しにくい、不規則なものとする。   Next, a different unique ID is assigned to each of the partial data 41a to 41d. This ID is irregular and difficult for a third party to guess.

各部分データ41a〜41dに付与されたIDには、その部分データ41a〜41dの位置情報が関連付けられる。この位置情報は、各部分データ41a〜41dと、他の部分データ41a〜41dの相対位置関係を示すものである。   The position information of the partial data 41a to 41d is associated with the ID assigned to each partial data 41a to 41d. This position information indicates the relative positional relationship between the partial data 41a to 41d and the other partial data 41a to 41d.

図2に示すように、部分データ41a〜41dが生成された後、これらの部分データ41a〜41dが、ネットワーク11を介して複数のサーバ10に分散して送信される。このときには、部分データ41a〜41dがランダムな送信順番で送信される。   As shown in FIG. 2, after the partial data 41 a to 41 d are generated, the partial data 41 a to 41 d are distributed and transmitted to the plurality of servers 10 via the network 11. At this time, the partial data 41a to 41d are transmitted in a random transmission order.

また、部分データ41a〜41dが送信されるサーバ10は、自動的に選択される。また、ユーザによって、例えば処理の速いサーバ10などを選択することもできる。   Further, the server 10 to which the partial data 41a to 41d is transmitted is automatically selected. Further, for example, the server 10 having a high processing speed can be selected by the user.

クライアント端末12は、部分データ41a〜41dを送信した後、サーバ10から画像処理が施された部分データ41a〜41dが戻るまで待機する。   After transmitting the partial data 41a to 41d, the client terminal 12 waits until the partial data 41a to 41d subjected to image processing is returned from the server 10.

この場合、タイムアウト時間を設定し、タイムアウト時間を超えた場合は、再度、サーバ10に処理依頼をするなどの管理を行うことができる。   In this case, it is possible to perform management such as setting a timeout time and requesting the server 10 to process again when the timeout time is exceeded.

サーバ10では、受信したデータに画像処理に関するパラメータ(例えば、処理の種類を指示する情報、フィルタのサイズなど)がある場合は、それらが確認される。部分データ41a〜41dに含まれているIDも確認され、返送時のために保存される。そして、部分データ41a〜41dに、所定の画像処理が施される。   In the server 10, if the received data includes parameters related to image processing (for example, information indicating the type of processing, filter size, etc.), these are confirmed. The ID included in the partial data 41a to 41d is also confirmed and saved for return. Then, predetermined image processing is performed on the partial data 41a to 41d.

次に、画像処理が施された部分データ41a〜41dが、クライアント端末12に送信される(図2中の実線の矢印参照)。このとき、部分データ41a〜41dに含まれているIDがそのままの状態で送信される。   Next, the partial data 41a to 41d subjected to the image processing is transmitted to the client terminal 12 (see the solid line arrow in FIG. 2). At this time, the IDs included in the partial data 41a to 41d are transmitted as they are.

クライアント端末12では、サーバ10から画像処理が施された部分データ41a〜41dが受信される(図2中の破線の矢印参照)。次に、各部分データ41a〜41dに含まれるIDに基づいて、その位置情報が求められる。   The client terminal 12 receives the partial data 41a to 41d on which image processing has been performed from the server 10 (see broken line arrows in FIG. 2). Next, the position information is obtained based on the ID included in each of the partial data 41a to 41d.

次に、部分データ41a〜41dが、その位置情報に基づいて再構成(再結合)され、処理範囲41の画像データが生成される。この画像データは、あたかも一体の画像データとして所定の画像処理が施されたように見える。この画像データは、表示部37に表示される。   Next, the partial data 41a to 41d are reconstructed (recombined) based on the position information, and image data of the processing range 41 is generated. This image data looks as if predetermined image processing has been performed as integrated image data. This image data is displayed on the display unit 37.

図6は、クライアント端末12の処理フローを示す。ここでは、まず、処理範囲が指定される(S1)。   FIG. 6 shows a processing flow of the client terminal 12. Here, first, a processing range is designated (S1).

次に、分割サイズが確認される(S2)。次に、各部分データにIDが付与される(S3)。次に、各IDに部分データの位置情報が関連付けられる(S4)。次に、部分デー
タがサーバに送信される(S5)。
Next, the division size is confirmed (S2). Next, ID is given to each partial data (S3). Next, position information of partial data is associated with each ID (S4). Next, the partial data is transmitted to the server (S5).

次に、サーバから部分データが受信され、全ての部分データが戻ったか否かが判断される(S6)。ここで、全ての部分データが戻った判断されると、次に、部分データが再結合されて画像データが生成される(S7)。次に、画像データが表示される(S9)。これで、処理が終了する。   Next, partial data is received from the server, and it is determined whether all partial data have been returned (S6). If it is determined that all the partial data has been returned, the partial data are then recombined to generate image data (S7). Next, image data is displayed (S9). This completes the process.

また、ステップ(S6)で全ての部分データが戻っていないと判断された場合は、次にタイムアウトになったか否かが判断される(S9)。   If it is determined in step (S6) that all partial data has not been returned, it is next determined whether or not a timeout has occurred (S9).

ここで、タイムアウトになったと判断されると、次に、部分データが再送信される(S10)。次に、ステップ(S6)以降の処理が行われる。ステップ(S9)でタイムアウトになっていないと判断されると、次にステップ(S6)以降の処理が行われる。   Here, if it is determined that a timeout has occurred, then the partial data is retransmitted (S10). Next, the process after step (S6) is performed. If it is determined in step (S9) that the time-out has not occurred, the processing after step (S6) is performed.

図7は、サーバ10の処理フローを示す。ここでは、まず、部分データなどが受信される(S21)。   FIG. 7 shows a processing flow of the server 10. Here, first, partial data and the like are received (S21).

次に、パラメータが確認される(S22)。次に、受信した部分データにそれぞれ所定の画像処理が行われる(S23)。次に、画像処理が施された部分データが、クライアント端末に送信される(S24)。これにより、処理が終了する。   Next, the parameters are confirmed (S22). Next, predetermined image processing is performed on each received partial data (S23). Next, the partial data subjected to the image processing is transmitted to the client terminal (S24). Thereby, the process ends.

このように、本発明の画像処理システム1によれば、画像データ40の処理範囲41が分割されて複数の部分データ41a〜41dが生成され、これらの部分データ41a〜41dがサーバ10に送信される。   Thus, according to the image processing system 1 of the present invention, the processing range 41 of the image data 40 is divided to generate a plurality of partial data 41 a to 41 d, and these partial data 41 a to 41 d are transmitted to the server 10. The

従って、サーバ10側又はネットワーク11に接続された他の端末側で、元の画像を再現することが困難となり、情報漏出を防ぐことが可能になる。   Therefore, it becomes difficult to reproduce the original image on the server 10 side or another terminal side connected to the network 11, and information leakage can be prevented.

また、例えばサーバ10が一台の場合などには、部分データ41a〜41dが時間的及び空間的にランダムに送信される。従って、仮に全ての部分データ41a〜41dを一台のサーバ10で受信したとしても、元の画像を再現することが困難になる。   For example, when there is one server 10, the partial data 41a to 41d are transmitted randomly in terms of time and space. Therefore, even if all the partial data 41a to 41d are received by one server 10, it is difficult to reproduce the original image.

また、サーバ10が複数台ある場合には、部分データ41a〜41dが複数のサーバ10に分散して送信される。これにより、一台のサーバ10には、一部の部分データしか送信されないので、元の画像を再現することが困難になる。   Further, when there are a plurality of servers 10, the partial data 41a to 41d are distributed and transmitted to the plurality of servers 10. As a result, only a part of the partial data is transmitted to one server 10, so that it is difficult to reproduce the original image.

これらのことから、本発明の画像処理システム1によれば、画像データに関してセキュリティ及びプライバシーを確実に保護できる。   For these reasons, according to the image processing system 1 of the present invention, security and privacy can be reliably protected for image data.

また、画像データ40の処理範囲41を部分データ41a〜41dに分割され、複数のサーバ10で画像処理が分散して処理されるので、画像処理に要する時間を短縮できる。   Further, since the processing range 41 of the image data 40 is divided into partial data 41a to 41d and the image processing is distributed and processed by the plurality of servers 10, the time required for the image processing can be shortened.

なお、クライアント端末12側の処理をウェブブラウザ上で利用できるようにすることができる。これにより、クライアント端末12側の処理に必要なソフトウェアを、インストールすることなく利用できる。この場合、例えば、Java(登録商標)scriptなどでクライアント端末12側の処理を実装する。   The processing on the client terminal 12 side can be made available on the web browser. As a result, software necessary for processing on the client terminal 12 side can be used without being installed. In this case, for example, processing on the client terminal 12 side is implemented using Java (registered trademark) script or the like.

例えば、画像データ40に処理範囲指定をすることなく、画像全体にフィルタ処理を行うような場合であれば、クライアント側は分割機能と再構成機能があればよい。また、通信路は特に限定するものではなく、たとえば、送受信をメールに添付する形で行うことに
してもよい。
For example, if a filtering process is performed on the entire image without specifying a processing range for the image data 40, the client side only needs to have a division function and a reconstruction function. Further, the communication path is not particularly limited, and for example, transmission / reception may be performed by attaching to a mail.

<第2の実施の形態>
図8は、文字認識処理を行う場合を示す。ここでは、画像データ50内の文字列50a〜50cを認識する。
<Second Embodiment>
FIG. 8 shows a case where character recognition processing is performed. Here, the character strings 50a to 50c in the image data 50 are recognized.

クライアント端末12では、この画像データ50が分割されて、部分データ51a〜51cが生成される。本実施形態では、文字列50a〜50cが一行毎に分割される。   In the client terminal 12, the image data 50 is divided to generate partial data 51a to 51c. In the present embodiment, the character strings 50a to 50c are divided for each line.

各部分データ51a〜51cには、その位置情報と関連付けられたIDが付与される。次に、これらの部分データ51a〜51cがサーバ10にランダムに送信される。   Each partial data 51a to 51c is given an ID associated with the position information. Next, these partial data 51 a to 51 c are randomly transmitted to the server 10.

サーバ10では、部分データ51a〜51c内の文字列50a〜50cが認識され、テキストデータ52a〜52cが生成される。次に、テキストデータ52a〜52cがクライアント端末12に送信される。   The server 10 recognizes the character strings 50a to 50c in the partial data 51a to 51c, and generates text data 52a to 52c. Next, the text data 52 a to 52 c is transmitted to the client terminal 12.

クライアント端末12では、受信したテキストデータ52a〜52cのIDから、各テキストデータ52a〜52cの位置情報が求められる。そして、この位置情報に基づいて、テキストデータ52a〜52cが並べ替えられて、文章53が構成される。すなわち、クライアント端末12から送信されるのは画像データであるが、サーバ10から戻されるのはテキストデータである。   In the client terminal 12, the position information of the text data 52a to 52c is obtained from the ID of the received text data 52a to 52c. Then, based on the position information, the text data 52a to 52c are rearranged to form a sentence 53. That is, image data is transmitted from the client terminal 12, but text data is returned from the server 10.

ここでは、文書全体を外に出すのは問題があるが、漏洩しても意味の通らない短い文の単位なら外に出ても良いという場合に、短い文の単位でテキスト化する。図8は、行単位で分割した場合を示すが、更に小さな単位で区切ることもできる。   Here, there is a problem in putting the entire document out, but if it is possible to go out if it is a short sentence unit that does not make sense even if it is leaked, the text is converted into a short sentence unit. FIG. 8 shows a case where the data is divided in units of rows, but can be divided in smaller units.

<第3の実施の形態>
図9は、所定の画像処理として映像データである動画データ60のシーンチェンジ位置65を検出する場合について説明する。この場合、クライアント端末12では、動画データ60に含まれる多数のフレーム60aが時間軸Tで分割されて、複数の部分データ61a〜61dが生成される。
<Third Embodiment>
FIG. 9 illustrates a case where the scene change position 65 of the moving image data 60 that is video data is detected as the predetermined image processing. In this case, in the client terminal 12, a large number of frames 60a included in the moving image data 60 are divided on the time axis T, and a plurality of partial data 61a to 61d are generated.

また、各部分データ61a〜61dの境界と、その両側の所定の範囲を含む境界部分データ62a〜62cが生成される。   In addition, boundary portion data 62a to 62c including boundaries between the partial data 61a to 61d and predetermined ranges on both sides thereof are generated.

部分データ61a〜61d及び境界部分データ62a〜62cには、それぞれIDが付与される。また、各IDは、各部分データ61a〜61d及び各境界部分データ62a〜62cの一番目のフレーム60aにおける、動画データ60の最初のフレーム60aに対する相対位置情報が関連づけられる。   An ID is assigned to each of the partial data 61a to 61d and the boundary partial data 62a to 62c. Further, each ID is associated with relative position information with respect to the first frame 60a of the moving image data 60 in the first frame 60a of each of the partial data 61a to 61d and each of the boundary partial data 62a to 62c.

次に、部分データ61a〜61d及び境界部分データ62a〜62cが、サーバ10にランダムに送信される。   Next, the partial data 61 a to 61 d and the boundary partial data 62 a to 62 c are randomly transmitted to the server 10.

サーバ10では、受信した部分データ61a〜61d及び境界部分データ62a〜62cから、シーンチェンジ位置65が検出される。本実施形態では、部分データ61cのt秒目にシーンチェンジ位置65が検出される。検出結果は、クライアント端末12に送信される。   In the server 10, the scene change position 65 is detected from the received partial data 61a to 61d and boundary partial data 62a to 62c. In the present embodiment, the scene change position 65 is detected at t seconds of the partial data 61c. The detection result is transmitted to the client terminal 12.

本実施形態では、部分データ61cの開始位置からX秒目、動画データ60の開始位置からt秒目に、シーンチェンジ位置65が検出される。また、部分データ61a〜61d
の開始位置と終了位置にシーンチェンジ位置65が含まれていないことは、境界部分データ62a〜62cの検出処理結果から分かる。
In the present embodiment, the scene change position 65 is detected at X seconds from the start position of the partial data 61 c and at t seconds from the start position of the moving image data 60. Also, the partial data 61a to 61d
The fact that the scene change position 65 is not included in the start position and the end position is understood from the detection processing results of the boundary portion data 62a to 62c.

動画データ60の場合は、部分データ61a〜61dの境界部分の整合性が問題になる。このため、本実施形態では、境界を含むその両側の範囲を境界部分データ62a〜62cとして生成して処理する。   In the case of the moving image data 60, the consistency of the boundary portions of the partial data 61a to 61d becomes a problem. For this reason, in this embodiment, the range of the both sides including a boundary is produced | generated as the boundary part data 62a-62c, and is processed.

これにより、部分データ61a〜61dの境界位置が、目的のフレームすなわちシーンチェンジ位置65のあるフレームであるか否かを判断できる。   Thereby, it can be determined whether the boundary position of the partial data 61a to 61d is a target frame, that is, a frame having the scene change position 65.

また、本発明の画像処理プログラム、画像処理方法及び画像処理システムは、以下の付記的事項を含むものである。   The image processing program, the image processing method, and the image processing system of the present invention include the following additional items.

〔その他〕
本発明は、以下のように特定することができる。
[Others]
The present invention can be specified as follows.

(付記1)画像データ又は映像データをネットワークを介して画像処理機能を有するサーバに送信し、前記サーバから所定の画像処理が施された前記画像データ、前記映像データ又はその他の処理結果を受信するコンピュータに実行させる画像処理プログラムであって、
前記画像データ又は前記映像データを分割して複数の部分データを生成するステップと、
前記部分データにおける他の前記部分データとの位置関係を示す位置情報を生成するステップと、
前記位置情報に識別情報を関連付けるステップと、
前記部分データに前記識別情報を付与するステップと、
前記識別情報が付与された前記部分データを、前記ネットワークを介して前記サーバに送信するステップと、
を実行させる画像処理プログラム。
(付記2)前記サーバから、前記所定の画像処理が施された前記部分データを受信するステップと、
受信した前記部分データに含まれる前記識別情報から、前記部分データの前記位置情報を求めるステップと、
前記部分データを前記位置情報に基づいて結合し、前記画像データ、前記映像データ又はその他の処理結果を生成するステップと、
を実行させる付記1に記載の画像処理プログラム。
(付記3)前記部分データを送信するステップは、前記部分データをランダムに送信する付記1に記載の画像処理プログラム。
(付記4)前記部分データを複数の前記サーバに分散して送信するステップを、更に実行させる付記1に記載の画像処理プログラム。
(付記5)前記部分データを送信すべき前記サーバの選択を受けるステップを、更に実行させる付記4に記載の画像処理プログラム。
(付記6)前記部分データに冗長部分を含む付記1または2に記載の画像処理プログラム。
(付記7)前記サーバから受信した前記部分データに含まれる前記冗長部分を除去するステップを、更に実行させる付記6に記載の画像処理プログラム。
(付記8)前記部分データのサイズの指定を受けるステップを、更に実行させる付記1に記載の画像処理プログラム。
(付記9)画像データ又は映像データをネットワークを介して画像処理機能を有するサーバに送信し、前記サーバから所定の画像処理が施された前記画像データ、前記映像デー
タ又はその他の処理結果を受信するコンピュータが実行する画像処理方法であって、
前記画像データ又は前記映像データを分割して複数の部分データを生成するステップと、
前記部分データにおける他の前記部分データとの位置関係を示す位置情報を生成するステップと、
前記位置情報に識別情報を関連付けるステップと、
前記部分データに前記識別情報を付与するステップと、
前記識別情報が付与された前記部分データを、前記ネットワークを介して前記サーバに送信するステップと、
を実行する画像処理方法。
(付記10)前記サーバから、前記所定の画像処理が施された前記部分データを受信するステップと、
受信した前記部分データに含まれる前記識別情報から、前記部分データの前記位置情報を求めるステップと、
前記部分データを前記位置情報に基づいて結合し、前記画像データ、前記映像データ又はその他の処理結果を生成するステップと、
を実効する付記9に記載の画像処理方法。
(付記11)画像データ又は映像データをネットワークを介して画像処理機能を有するサーバに送信し、前記サーバから所定の画像処理が施された前記画像データ、前記映像データ又はその他の処理結果を受信する画像処理システムであって、
前記画像データ又は前記映像データを分割して複数の部分データを生成する手段と、
前記部分データにおける他の前記部分データとの位置関係を示す位置情報を生成する手段と、
前記位置情報に識別情報を関連付ける手段と、
前記部分データに前記識別情報を付与する手段と、
前記識別情報が付与された前記部分データを、前記ネットワークを介して前記サーバに送信する手段と、
を備える画像処理システム。
(付記12)前記サーバから、前記所定の画像処理が施された前記部分データを受信する手段と、
受信した前記部分データに含まれる前記識別情報から、前記部分データの前記位置情報を求める手段と、
前記部分データを前記位置情報に基づいて結合し、前記画像データ、前記映像データ又はその他の処理結果を生成する手段と、
を備える付記11に記載の画像処理システム。
(Supplementary note 1) Image data or video data is transmitted to a server having an image processing function via a network, and the image data, the video data or other processing results subjected to predetermined image processing are received from the server. An image processing program to be executed by a computer,
Dividing the image data or the video data to generate a plurality of partial data;
Generating position information indicating a positional relationship with the other partial data in the partial data;
Associating identification information with the location information;
Giving the identification information to the partial data;
Transmitting the partial data provided with the identification information to the server via the network;
An image processing program for executing
(Supplementary Note 2) A step of receiving the partial data subjected to the predetermined image processing from the server;
Obtaining the position information of the partial data from the identification information included in the received partial data;
Combining the partial data based on the position information to generate the image data, the video data or other processing results;
The image processing program according to attachment 1, wherein the program is executed.
(Supplementary note 3) The image processing program according to supplementary note 1, wherein the step of transmitting the partial data includes transmitting the partial data at random.
(Additional remark 4) The image processing program of Additional remark 1 which further performs the step which distributes and transmits the said partial data to the said some server.
(Additional remark 5) The image processing program of Additional remark 4 which performs further the step which receives selection of the said server which should transmit the said partial data.
(Supplementary note 6) The image processing program according to supplementary note 1 or 2, wherein the partial data includes a redundant portion.
(Additional remark 7) The image processing program of Additional remark 6 which further performs the step which removes the said redundant part contained in the said partial data received from the said server.
(Additional remark 8) The image processing program of Additional remark 1 which further performs the step which receives designation | designated of the size of the said partial data.
(Supplementary Note 9) Transmits image data or video data to a server having an image processing function via a network, and receives the image data, the video data, or other processing results subjected to predetermined image processing from the server. An image processing method executed by a computer,
Dividing the image data or the video data to generate a plurality of partial data;
Generating position information indicating a positional relationship with the other partial data in the partial data;
Associating identification information with the location information;
Giving the identification information to the partial data;
Transmitting the partial data provided with the identification information to the server via the network;
An image processing method for executing.
(Supplementary note 10) receiving the partial data subjected to the predetermined image processing from the server;
Obtaining the position information of the partial data from the identification information included in the received partial data;
Combining the partial data based on the position information to generate the image data, the video data or other processing results;
The image processing method according to appendix 9, wherein:
(Supplementary Note 11) Image data or video data is transmitted to a server having an image processing function via a network, and the image data, video data, or other processing result subjected to predetermined image processing is received from the server. An image processing system,
Means for dividing the image data or the video data to generate a plurality of partial data;
Means for generating position information indicating a positional relationship with the other partial data in the partial data;
Means for associating identification information with the location information;
Means for giving the identification information to the partial data;
Means for transmitting the partial data provided with the identification information to the server via the network;
An image processing system comprising:
(Supplementary Note 12) Means for receiving the partial data subjected to the predetermined image processing from the server;
Means for obtaining the position information of the partial data from the identification information included in the received partial data;
Means for combining the partial data based on the position information and generating the image data, the video data or other processing results;
The image processing system according to claim 11, further comprising:

本発明に係る第1実施形態の画像処理システムを示す図である。1 is a diagram illustrating an image processing system according to a first embodiment of the present invention. 本発明に係る第1実施形態のクライアント端末による画像データの分割方法を示す図である。It is a figure which shows the division method of the image data by the client terminal of 1st Embodiment which concerns on this invention. 本発明に係る第1実施形態の画像データの分割方法及び冗長部分を示す図である。It is a figure which shows the division | segmentation method and redundant part of the image data of 1st Embodiment concerning this invention. 本発明に係る第1実施形態の部分データ及び冗長部分を示す図である。It is a figure which shows the partial data and redundant part of 1st Embodiment which concern on this invention. 本発明に係る第1実施形態の他の部分データ及び冗長部分を示す図である。It is a figure which shows the other partial data and redundant part of 1st Embodiment which concern on this invention. 本発明に係る第1実施形態のクライアント端末の処理を示すフローチャートである。It is a flowchart which shows the process of the client terminal of 1st Embodiment which concerns on this invention. 本発明に係る第1実施形態のサーバの処理を示すフローチャートである。It is a flowchart which shows the process of the server of 1st Embodiment which concerns on this invention. 本発明に係る第2実施形態の文字認識処理を行う場合のクライアント端末の処理内容を示す図である。It is a figure which shows the processing content of the client terminal in the case of performing the character recognition process of 2nd Embodiment which concerns on this invention. 本発明に係る第3実施形態の動画データのシーンチェンジ位置を検出する場合のクライアント端末の処理内容を示す図である。It is a figure which shows the processing content of the client terminal in the case of detecting the scene change position of the moving image data of 3rd Embodiment which concerns on this invention.

符号の説明Explanation of symbols

1 画像処理システム
10 サーバ
11 ネットワーク
12 クライアント端末
21 送受信部
22 画像処理部
31 処理範囲指定部
32 分割処理部
33 ID付与部
34 ID・位置情報関連付け部
35 記憶部
36 再構成部
37 表示部
38 送受信部
40 画像データ
41 処理範囲
41a〜41d 部分データ
42 実領域
43,44 冗長部分
50 画像データ
50a〜50c 文字列
51a〜51c 各部分データ
53 文章
60 動画データ(映像データ)
60a フレーム
61a〜61d 部分データ
62a〜62c 境界部分データ
65 シーンチェンジ位置
DESCRIPTION OF SYMBOLS 1 Image processing system 10 Server 11 Network 12 Client terminal 21 Transmission / reception part 22 Image processing part 31 Processing range designation part 32 Division | segmentation processing part 33 ID provision part 34 ID / position information correlation part 35 Storage part 36 Reconstruction part 37 Display part 38 Transmission / reception Part 40 Image data 41 Processing range 41a-41d Partial data 42 Real area 43, 44 Redundant part 50 Image data 50a-50c Character string 51a-51c Partial data 53 Text 60 Movie data (video data)
60a frame 61a to 61d partial data 62a to 62c boundary partial data 65 scene change position

Claims (5)

画像データ又は映像データをネットワークを介して画像処理機能を有するサーバに送信し、前記サーバから所定の画像処理が施された前記画像データ、前記映像データ又はその他の処理結果を受信するコンピュータに実行させる画像処理プログラムであって、
前記画像データ又は前記映像データを分割して複数の部分データを生成するステップと、
前記部分データにおける他の前記部分データとの位置関係を示す位置情報を生成するステップと、
前記位置情報に識別情報を関連付けるステップと、
前記部分データに前記識別情報を付与するステップと、
前記識別情報が付与された前記部分データを、前記ネットワークを介して前記サーバに送信するステップと、
を実行させる画像処理プログラム。
Image data or video data is transmitted to a server having an image processing function via a network, and is executed by a computer that receives the image data, the video data, or other processing results subjected to predetermined image processing from the server. An image processing program,
Dividing the image data or the video data to generate a plurality of partial data;
Generating position information indicating a positional relationship with the other partial data in the partial data;
Associating identification information with the location information;
Giving the identification information to the partial data;
Transmitting the partial data provided with the identification information to the server via the network;
An image processing program for executing
前記サーバから前記所定の画像処理が施された前記部分データを受信するステップと、
受信した前記部分データに含まれる前記識別情報から、前記部分データの前記位置情報を求めるステップと、
前記部分データを前記位置情報に基づいて結合し、前記画像データ又は前記映像データを生成するステップと、
を実行させる請求項1に記載の画像処理プログラム。
Receiving the partial data subjected to the predetermined image processing from the server;
Obtaining the position information of the partial data from the identification information included in the received partial data;
Combining the partial data based on the position information to generate the image data or the video data;
The image processing program according to claim 1, wherein:
前記部分データを送信するステップは、前記部分データをランダムに送信する請求項1に記載の画像処理プログラム。   The image processing program according to claim 1, wherein in the step of transmitting the partial data, the partial data is transmitted at random. 画像データ又は映像データをネットワークを介して画像処理機能を有するサーバに送信し、前記サーバから所定の画像処理が施された前記画像データ、前記映像データ又はその他の処理結果を受信するコンピュータが実行する画像処理方法であって、
前記画像データ又は前記映像データを分割して複数の部分データを生成するステップと、
前記部分データにおける他の前記部分データとの位置関係を示す位置情報を生成するステップと、
前記位置情報に識別情報を関連付けるステップと、
前記部分データに前記識別情報を付与するステップと、
前記識別情報が付与された前記部分データを、前記ネットワークを介して前記サーバに送信するステップと、
を実行する画像処理方法。
This is executed by a computer that transmits image data or video data to a server having an image processing function via a network, and receives the image data, video data, or other processing results subjected to predetermined image processing from the server. An image processing method comprising:
Dividing the image data or the video data to generate a plurality of partial data;
Generating position information indicating a positional relationship with the other partial data in the partial data;
Associating identification information with the location information;
Giving the identification information to the partial data;
Transmitting the partial data provided with the identification information to the server via the network;
An image processing method for executing.
画像データ又は映像データをネットワークを介して画像処理機能を有するサーバに送信し、前記サーバから所定の画像処理が施された前記画像データ、前記映像データ又はその他の処理結果を受信する画像処理システムであって、
前記画像データ又は前記映像データを分割して複数の部分データを生成する手段と、
前記部分データにおける他の前記部分データとの位置関係を示す位置情報を生成する手段と、
前記位置情報に識別情報を関連付ける手段と、
前記部分データに前記識別情報を付与する手段と、
前記識別情報が付与された前記部分データを、前記ネットワークを介して前記サーバに送信する手段と、
を備える画像処理システム。
An image processing system that transmits image data or video data to a server having an image processing function via a network and receives the image data, the video data, or other processing results subjected to predetermined image processing from the server. There,
Means for dividing the image data or the video data to generate a plurality of partial data;
Means for generating position information indicating a positional relationship with the other partial data in the partial data;
Means for associating identification information with the location information;
Means for giving the identification information to the partial data;
Means for transmitting the partial data provided with the identification information to the server via the network;
An image processing system comprising:
JP2006275431A 2006-10-06 2006-10-06 Image processing program, image processing method and image processing system Withdrawn JP2008098768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006275431A JP2008098768A (en) 2006-10-06 2006-10-06 Image processing program, image processing method and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006275431A JP2008098768A (en) 2006-10-06 2006-10-06 Image processing program, image processing method and image processing system

Publications (1)

Publication Number Publication Date
JP2008098768A true JP2008098768A (en) 2008-04-24

Family

ID=39381193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006275431A Withdrawn JP2008098768A (en) 2006-10-06 2006-10-06 Image processing program, image processing method and image processing system

Country Status (1)

Country Link
JP (1) JP2008098768A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012049806A (en) * 2010-08-26 2012-03-08 Nippon Telegr & Teleph Corp <Ntt> Information transmission and reception system and information transmission and reception method
JP2012049807A (en) * 2010-08-26 2012-03-08 Nippon Telegr & Teleph Corp <Ntt> Information transmission and reception system and information transmission and reception method
JP2015045961A (en) * 2013-08-27 2015-03-12 株式会社東芝 Information processor, monitor camera unit and image reproduction apparatus
JP2015138198A (en) * 2014-01-23 2015-07-30 エヌ・ティ・ティ・コミュニケーションズ株式会社 Data concealing method, data concealing device, and data concealing program
CN104954890A (en) * 2015-06-24 2015-09-30 深圳市世文通文化传播有限公司 Cloud storage image smashing and uniform sending method
JP2017116960A (en) * 2017-03-17 2017-06-29 エヌ・ティ・ティ・コミュニケーションズ株式会社 Data concealing method, data concealing device, and data concealing program
JP2019185424A (en) * 2018-04-11 2019-10-24 富士ゼロックス株式会社 Information processor, information processing program, browsing device, browsing program, and information processing system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012049806A (en) * 2010-08-26 2012-03-08 Nippon Telegr & Teleph Corp <Ntt> Information transmission and reception system and information transmission and reception method
JP2012049807A (en) * 2010-08-26 2012-03-08 Nippon Telegr & Teleph Corp <Ntt> Information transmission and reception system and information transmission and reception method
JP2015045961A (en) * 2013-08-27 2015-03-12 株式会社東芝 Information processor, monitor camera unit and image reproduction apparatus
JP2015138198A (en) * 2014-01-23 2015-07-30 エヌ・ティ・ティ・コミュニケーションズ株式会社 Data concealing method, data concealing device, and data concealing program
CN104954890A (en) * 2015-06-24 2015-09-30 深圳市世文通文化传播有限公司 Cloud storage image smashing and uniform sending method
CN104954890B (en) * 2015-06-24 2019-03-26 深圳市世文通文化传播有限公司 Cloud storage image smashing and uniform sending method
JP2017116960A (en) * 2017-03-17 2017-06-29 エヌ・ティ・ティ・コミュニケーションズ株式会社 Data concealing method, data concealing device, and data concealing program
JP2019185424A (en) * 2018-04-11 2019-10-24 富士ゼロックス株式会社 Information processor, information processing program, browsing device, browsing program, and information processing system
JP7047558B2 (en) 2018-04-11 2022-04-05 富士フイルムビジネスイノベーション株式会社 Information processing device, information processing program, browsing device, browsing program, and information processing system

Similar Documents

Publication Publication Date Title
JP2008098768A (en) Image processing program, image processing method and image processing system
US8836722B2 (en) Protecting screen information
CN104680077B (en) Method for encrypting picture, method for viewing picture, system and terminal
EP3234904B1 (en) Method and apparatus for publishing locational copyrighted watermarking video
EP3272097B1 (en) Forensic analysis
CN108134964A (en) Net cast stage property stacking method, computer equipment and storage medium
JP2009512309A (en) Information-based remote watermark detection system
US20150193280A1 (en) Method and device for monitoring api function scheduling in mobile terminal
US10706488B2 (en) Embedding debugging information via watermarks
CN107516045A (en) Document protection method and device
JP2015511742A (en) Data distribution method on the network
CN111666577B (en) Data decryption method, device, equipment and storage medium
CN114205587A (en) Image display method, device, system and equipment
CN103530550B (en) File/applied program processing method on communication terminal and device
CN106844006A (en) Based on data prevention method and system under virtualized environment
JP2007072643A (en) Data storage system
CN113065168B (en) Method, device and storage medium for storing and checking authenticity of video data
CN113542766B (en) Video encoding method, apparatus, electronic device, and computer-readable medium
CN109388447A (en) A kind of interface is drawn and image processing method, device, terminal and server
CN112434327B (en) Information protection method and device and electronic equipment
KR101995535B1 (en) Method and program for protecting copying webtoon
US9055169B2 (en) Printing frames of a video
JP2003110842A (en) Image processor, processing method and recording medium
KR101837963B1 (en) System, method and program for protecting copying webtoon
CN112632646A (en) Single-chip microcomputer serial port communication encryption method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100105