JP6418290B2 - Information processing apparatus, data structure of image file and program - Google Patents

Information processing apparatus, data structure of image file and program Download PDF

Info

Publication number
JP6418290B2
JP6418290B2 JP2017139934A JP2017139934A JP6418290B2 JP 6418290 B2 JP6418290 B2 JP 6418290B2 JP 2017139934 A JP2017139934 A JP 2017139934A JP 2017139934 A JP2017139934 A JP 2017139934A JP 6418290 B2 JP6418290 B2 JP 6418290B2
Authority
JP
Japan
Prior art keywords
image
subject
information
attribute information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017139934A
Other languages
Japanese (ja)
Other versions
JP2018073386A (en
Inventor
賢吾 得地
賢吾 得地
馬場 基文
基文 馬場
嘉彦 根本
嘉彦 根本
佐藤 雅弘
雅弘 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017139934A priority Critical patent/JP6418290B2/en
Publication of JP2018073386A publication Critical patent/JP2018073386A/en
Application granted granted Critical
Publication of JP6418290B2 publication Critical patent/JP6418290B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、情報処理装置、画像ファイルのデータ構造及びプログラムに関する。   The present invention relates to an information processing apparatus, a data structure of an image file, and a program.

特許文献1には、マークアップ言語を用いて定義したタグを画像ファイルの属性情報に記述するフォーマット、すなわちExif(Exchangeable image file)フォーマットが記載されている。   Patent Document 1 describes a format for describing a tag defined using a markup language in attribute information of an image file, that is, an Exif (Exchangeable image file) format.

特開2004−120069号公報Japanese Patent Laid-Open No. 2004-120069

従来のJPEG(Joint Photographic Experts Group)フォーマットでは、撮影日といった簡易な属性情報の記載が認められている。しかし、属性情報に、被写体に関連するワークフロー処理を規定する情報を実行言語で記述することは想定されていない。   In the conventional JPEG (Joint Photographic Experts Group) format, simple attribute information such as a shooting date is allowed to be described. However, it is not assumed that information defining workflow processing related to the subject is described in the execution language in the attribute information.

本発明の目的は、画像のデータファイルに付属する属性情報の一部に被写体に関連するワークフロー処理を規定する情報が記述されていない場合に比して、画像の利便性を向上させることにある。   An object of the present invention is to improve the convenience of an image compared to a case where information defining workflow processing related to a subject is not described in part of attribute information attached to an image data file. .

請求項1に記載の発明は、属性情報が付属した各被写体を含む画像に対するユーザの指定を認識する認識部と、前記画像上でユーザが指定した被写体に付属する前記属性情報を、当該画像のデータファイルに付属する属性情報の中から読み出した後、読み出された当該属性情報が規定するワークフロー処理の実行を通じてユーザが指定した当該被写体に関連する情報の通知を要求する制御部と、を有する情報処理装置である。
請求項2に記載の発明は、前記画像のデータファイルは、JPEGフォーマットに準拠し、前記属性情報は、JSONで記述されていることを特徴とする請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記制御部は、前記ワークフロー処理の実行を通じて、前記被写体としての機器を操作するための操作画面を表示することを特徴とする請求項1に記載の情報処理装置である。
請求項4に記載の発明は、前記制御部は、前記操作画面を通じて受け付けた操作に関するコマンドを前記被写体としての機器に対して送信する又は送信させることを特徴とする請求項3に記載の情報処理装置である。
請求項5に記載の発明は、前記制御部は、前記操作によって実現された状態が反映されるように、前記画像内における前記被写体の表示に変化を与えることを特徴とする請求項4に記載の情報処理装置である。
請求項6に記載の発明は、前記制御部は、前記被写体としての機器に応じて用意されている複数の前記操作画面の何れか1つ以上を表示することを特徴とする請求項3に記載の情報処理装置である。
請求項7に記載の発明は、前記被写体に対応する実在する機器の状態を反映するように、当該被写体の表示を変更することを特徴とする請求項3に記載の情報処理装置である。
請求項8に記載の発明は、前記制御部は、前記ワークフロー処理の実行を通じて、前記被写体に関連付けられている音声ファイルを再生することを特徴とする請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記ワークフロー処理は、前記被写体がユーザに操作可能な機器の画像である場合、当該機器を操作する操作画面を表示し、当該被写体がユーザに操作不可能な画像である場合、当該被写体に関する情報を通知するように処理の内容を切り替えること、を特徴とする請求項1に記載の情報処理装置である。
請求項10に記載の発明は、前記制御部は、前記画像のデータファイルに付属する前記属性情報に記述されている前記情報の内容と、当該画像が貼り付けられる文書ファイルの文書内に記述されている内容とを組み合わせて1つの機能を実行することを特徴とする請求項1に記載の情報処理装置である。
請求項11に記載の発明は、前記制御部は、前記画像のデータファイルに含まれる前記属性情報に記述された前記情報の内容と、当該画像が貼り付けられる文書ファイルを開くアプリケーションに登録されている内容とを組み合わせて1つの機能を実行することを特徴とする請求項1に記載の情報処理装置である。
請求項12に記載の発明は、前記制御部は、前記情報の復号結果を外部装置から取得して前記ワークフロー処理を実行することを特徴とする請求項1に記載の情報処理装置である。
請求項13に記載の発明は、属性情報が付属した各被写体を含む画像上でユーザが指定した被写体に対応する領域部分を検出する又は予め定めた被写体が存在する当該画像上における領域部分を検出する検出部と、検出された前記領域部分の前記被写体に関連する情報の通知をワークフロー処理の実行を通じて要求するための情報を、前記画像のデータファイルに付属する前記属性情報の一部分に記述する制御部と、を有する情報処理装置である。
請求項14に記載の発明は、情報処理装置で処理される画像ファイルのデータ構造において、画像の本体を格納する第1のデータ領域と、前記画像の本体の属性情報を格納する第2のデータ領域であり、当該本体の属性情報の一部として、当該画像に含まれる各被写体に付属する属性情報を含む当該第2のデータ領域とを備え、前記画像上で前記被写体がユーザにより指定された場合、当該被写体に付属する前記属性情報が規定するワークフロー処理の実行を通じて、ユーザが指定した被写体に関連する情報の通知を前記情報処理装置に要求する画像ファイルのデータ構造である。
請求項15に記載の発明は、コンピュータを、属性情報が付属した各被写体を含む画像に対するユーザの指定を認識する認識部と、前記画像上でユーザが指定した被写体に付属する前記属性情報を、当該画像のデータファイルに付属する前記属性情報の中から読み出した後、読み出された当該属性情報が規定するワークフロー処理の実行を通じてユーザが指定した前記被写体に関連する情報の通知を要求する制御部と、として機能させるためのプログラムである。
請求項16に記載の発明は、コンピュータを、属性情報が付属した各被写体を含む画像上でユーザが指示した被写体に対応する領域部分を検出する又は予め定めた被写体が存在する当該画像上における領域部分を検出する検出部と、検出された前記領域部分の前記被写体に関連する情報の通知をワークフロー処理の実行を通じて要求するための情報を、前記画像のデータファイルに付属する前記属性情報の一部分に記述する制御部と、として機能させるためのプログラムである。
According to the first aspect of the present invention, a recognition unit that recognizes a user's designation for an image including each subject to which attribute information is attached, and the attribute information that is attached to the subject designated by the user on the image, And a control unit that requests notification of information related to the subject specified by the user through execution of a workflow process specified by the read attribute information after reading from the attribute information attached to the data file. Information processing apparatus.
The invention according to claim 2 is the information processing apparatus according to claim 1, wherein the data file of the image conforms to a JPEG format, and the attribute information is described in JSON.
According to a third aspect of the present invention, in the information processing apparatus according to the first aspect, the control unit displays an operation screen for operating the device as the subject through the execution of the workflow process. It is.
According to a fourth aspect of the present invention, the control unit transmits or transmits a command related to an operation received through the operation screen to the device as the subject. Device.
The invention according to claim 5 is characterized in that the control unit changes the display of the subject in the image so that the state realized by the operation is reflected. Information processing apparatus.
The invention according to claim 6 is characterized in that the control unit displays any one or more of the plurality of operation screens prepared according to the device as the subject. Information processing apparatus.
The invention according to claim 7 is the information processing apparatus according to claim 3, wherein the display of the subject is changed so as to reflect the state of an actual device corresponding to the subject.
The invention according to claim 8 is the information processing apparatus according to claim 1, wherein the control unit reproduces an audio file associated with the subject through execution of the workflow process.
According to the ninth aspect of the present invention, in the workflow process, when the subject is an image of a device that can be operated by a user, an operation screen for operating the device is displayed, and the subject cannot be operated by the user. 2. The information processing apparatus according to claim 1, wherein the content of the process is switched so as to notify information about the subject.
According to a tenth aspect of the present invention, the control unit is described in the document of the document file to which the image is pasted and the contents of the information described in the attribute information attached to the data file of the image. The information processing apparatus according to claim 1, wherein a single function is executed in combination with the content being stored.
According to an eleventh aspect of the present invention, the control unit is registered in an application that opens the document file to which the image is pasted and the content of the information described in the attribute information included in the data file of the image. The information processing apparatus according to claim 1, wherein one function is executed in combination with the contents of the information processing apparatus.
The invention according to claim 12 is the information processing apparatus according to claim 1, wherein the control unit acquires a decoding result of the information from an external device and executes the workflow process.
The invention according to claim 13 detects an area portion corresponding to a subject specified by the user on an image including each subject to which attribute information is attached, or detects an area portion on the image where a predetermined subject exists. And a control unit that describes, in a part of the attribute information attached to the data file of the image, information for requesting notification of information related to the subject of the detected area portion through execution of a workflow process And an information processing apparatus.
According to a fourteenth aspect of the present invention, in the data structure of the image file processed by the information processing apparatus, the first data area for storing the main body of the image and the second data for storing attribute information of the main body of the image A second data area including attribute information attached to each subject included in the image as part of the attribute information of the main body, and the subject is designated by the user on the image In this case, the data structure of the image file requests the information processing apparatus to notify the information related to the subject specified by the user through the execution of the workflow process defined by the attribute information attached to the subject.
In the invention according to claim 15, the computer is configured to recognize a user's designation for an image including each subject to which attribute information is attached, and the attribute information attached to the subject designated by the user on the image. A control unit that requests reading of information related to the subject specified by the user through execution of a workflow process specified by the read attribute information after reading from the attribute information attached to the data file of the image It is a program to make it function as.
According to the sixteenth aspect of the present invention, the computer detects an area portion corresponding to the subject instructed by the user on the image including each subject to which attribute information is attached, or an area on the image where a predetermined subject exists. Information for requesting notification of information related to the subject of the detected area portion through execution of a workflow process in a part of the attribute information attached to the data file of the image It is a program for functioning as a control unit to be described.

請求項1記載の発明によれば、画像のデータファイルに付属する属性情報の一部に被写体に関連するワークフロー処理を規定する情報が記述されていない場合に比して、画像の利便性が向上する。
請求項2記載の発明によれば、JPEGフォーマットの属性情報に被写体に関するワークフロー処理がJSONで記述されていない場合に比して、JPEGフォーマットに準拠する画像の利便性が向上する。
請求項3記載の発明によれば、被写体である機器の操作画面が表示されない場合に比して、画像の利便性が向上する。
請求項4記載の発明によれば、操作に関するコマンドが被写体としての機器に送信されない場合に比して、画像の利便性が向上する。
請求項5記載の発明によれば、画像の被写体の表示が変化しない場合に比して、被写体である機器に対する操作結果の確認が容易になる。
請求項6記載の発明によれば、被写体である機器に応じて操作画面が複数用意されていない場合に比して、画像の利便性が向上する。
請求項7記載の発明によれば、画像の被写体の表示が実在する機器の状態を反映しない場合に比して、被写体である機器に対する操作結果の確認が容易になる。
請求項8記載の発明によれば、被写体に関連付けられている音声ファイルが再生されない場合に比して、画像の利便性が向上する。
請求項9記載の発明によれば、画像に含まれる被写体に応じた情報が得られるので、画像の利便性が向上する。
請求項10記載の発明によれば、画像の属性情報に記述されている情報と文書ファイルの文書中に記述された内容とを組み合わせて1つの機能を実行しない場合に比して、連携した機能を実行できる。
請求項11記載の発明によれば、画像の属性情報に記述されている情報と画像が貼り付けられる文書ファイルを開くアプリケーションに登録されている内容とを組み合わせて1つの機能を実行しない場合に比して、連携した機能を実行できる。
請求項12記載の発明によれば、画像の付属情報を外部装置に与えて復号させない場合に比して、復号結果の利便性が向上する。
請求項13記載の発明によれば、被写体に関連するワークフロー処理の実行を通じて情報の通知を要求するための情報を画像のデータファイルに付属する属性情報の一部分に記述しない場合に比して、画像の利便性が向上する。
請求項14記載の発明によれば、被写体に関連するワークフロー処理の実行を通じて情報の通知を要求するための情報を画像のデータファイルに付属する属性情報の一部分に含まない画像ファイルのデータ構造に比して、画像の利便性が向上する。
請求項15記載の発明によれば、画像のデータファイルに付属する属性情報の一部に被写体に関連するワークフロー処理を規定する情報が記述されていない場合に比して、画像の利便性が向上する。
請求項16記載の発明によれば、被写体に関連するワークフロー処理の実行を通じて情報の通知を要求するための情報を画像のデータファイルに付属する属性情報の一部分に記述しない場合に比して、画像の利便性が向上する。
According to the first aspect of the present invention, the convenience of the image is improved as compared with the case where information defining workflow processing related to the subject is not described in part of the attribute information attached to the image data file. To do.
According to the second aspect of the present invention, the convenience of the image conforming to the JPEG format is improved as compared with the case where the workflow processing related to the subject is not described in JSON in the attribute information of the JPEG format.
According to the third aspect of the present invention, the convenience of the image is improved as compared with the case where the operation screen of the device that is the subject is not displayed.
According to the fourth aspect of the present invention, the convenience of the image is improved as compared with the case where the command related to the operation is not transmitted to the device as the subject.
According to the fifth aspect of the present invention, it is easier to confirm the operation result for the device that is the subject than when the display of the subject of the image does not change.
According to the sixth aspect of the present invention, the convenience of the image is improved as compared with the case where a plurality of operation screens are not prepared according to the device that is the subject.
According to the seventh aspect of the present invention, it is easier to confirm the operation result for the device that is the subject than when the display of the subject of the image does not reflect the state of the actual device.
According to the invention described in claim 8, the convenience of the image is improved as compared with the case where the audio file associated with the subject is not reproduced.
According to the ninth aspect of the invention, information according to the subject included in the image can be obtained, so that the convenience of the image is improved.
According to the tenth aspect of the present invention, compared to the case where one function is not executed by combining the information described in the attribute information of the image and the content described in the document of the document file, the linked functions Can be executed.
According to the eleventh aspect of the present invention, the information described in the attribute information of the image is combined with the contents registered in the application that opens the document file to which the image is pasted, and compared with the case where one function is not executed. Thus, linked functions can be executed.
According to the twelfth aspect of the present invention, the convenience of the decoding result is improved as compared with the case where the attached information of the image is not given to the external device and is not decoded.
According to the thirteenth aspect of the present invention, compared to the case where the information for requesting the notification of information through the execution of the workflow process related to the subject is not described in a part of the attribute information attached to the image data file, the image Improved convenience.
According to the fourteenth aspect of the present invention, the information for requesting notification of information through the execution of the workflow process related to the subject is compared with the data structure of the image file that does not include a part of the attribute information attached to the image data file. Thus, the convenience of the image is improved.
According to the fifteenth aspect of the present invention, the convenience of the image is improved as compared with the case where information defining workflow processing related to the subject is not described in part of the attribute information attached to the image data file. To do.
According to the sixteenth aspect of the present invention, as compared with the case where information for requesting notification of information through execution of a workflow process related to a subject is not described in a part of attribute information attached to the image data file, the image Improved convenience.

本実施の形態で使用するJPEGファイルのデータ構造例を示す図である。It is a figure which shows the example of a data structure of the JPEG file used by this Embodiment. 本実施の形態で使用する画像処理システムの構成例を示す図である。It is a figure which shows the structural example of the image processing system used by this Embodiment. 本実施の形態に係るコンピュータの構成例を示す図である。It is a figure which shows the structural example of the computer which concerns on this Embodiment. 本実施の形態に係る画像形成装置の構成例を示す図である。1 is a diagram illustrating a configuration example of an image forming apparatus according to an exemplary embodiment. 各利用形態で使用する静止画像の一例を示す図である。It is a figure which shows an example of the still image used with each utilization form. ワークフロー処理を規定する情報を属性情報に含むJPEGファイルを処理する機能の観点から表現した制御部の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the control part expressed from the viewpoint of the function which processes the JPEG file which contains the information which prescribes | regulates a workflow process in attribute information. 制御部で実行される処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the process performed by a control part. 利用形態1のうちコマンドの出力までを説明する図である。It is a figure explaining the output of a command among the usage modes 1. FIG. 利用形態1のうち静止画像に加えられる表示態様の変化例を説明する図である。It is a figure explaining the example of a change of the display mode added to a still image among the usage forms 1. FIG. ワークフロー処理を規定する情報が属性情報に記述されているJPEGファイルを複製する場合の動作例を説明する図である。It is a figure explaining the operation example in the case of copying the JPEG file in which the information which prescribes | regulates a workflow process is described in attribute information. ワークフロー処理を規定する情報が属性情報に記述されているJPEGファイルを複製する場合の他の動作例を説明する図である。It is a figure explaining the other operation example in the case of copying the JPEG file in which the information which prescribes | regulates a workflow process is described in attribute information. JPEGファイルの複製のタイミングで表示されるワークフロー処理を規定する情報の複製を確認するポップアップ画面の表示例を示す図である。It is a figure which shows the example of a pop-up screen which confirms the duplication of the information which prescribes | regulates the workflow process displayed at the timing of a JPEG file duplication. ワークフロー処理を規定する情報が属性情報に記述されている被写体を画像編集により対応する静止画像から削除する場合の動作例を説明する図である。It is a figure explaining the operation example in the case of deleting the subject in which the information which prescribes | regulates a workflow process is described in attribute information from the corresponding still image by image editing. ワークフロー処理を規定する情報が属性情報に記述されている1つの被写体を画像編集により複製する又は切り取る場合の動作例を説明する図である。It is a figure explaining the operation example in case one subject in which the information which prescribes | regulates a workflow process is described by attribute information is duplicated or cut out by image editing. 複数の静止画像から複製又は切り出された電子機器の小画像を1枚の静止画像上に配置した例を示す図である。It is a figure which shows the example which has arrange | positioned the small image of the electronic device copied or cut out from several still images on one still image. ワークフロー処理を規定する情報が属性情報に記述されているJPEGファイルの画像を電子文書に貼り付ける場合に現れる画面例を説明する図である。It is a figure explaining the example of a screen which appears when the image of the JPEG file in which the information which prescribes | regulates a workflow process is described in attribute information is pasted on an electronic document. ワークフロー処理を規定する情報が属性情報に記述されているJPEGファイルの画像を電子文書に貼り付ける場合に現れる他の画面例を説明する図である。FIG. 10 is a diagram illustrating another example of a screen that appears when an image of a JPEG file in which information defining workflow processing is described in attribute information is pasted on an electronic document. 属性情報の内容を表す低視認性のコード化画像を静止画像に埋め込んで印刷する利用形態を説明する図である。It is a figure explaining the utilization form which embeds and prints the low visibility coded image showing the content of attribute information in a still image. JPEGファイルを印刷する場合に制御部で実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed by a control part when printing a JPEG file. 合成画像からコード化画像と静止画像を分離し、コード化画像から属性情報を復元する様子を説明する図である。It is a figure explaining a mode that a coded picture and a still picture are separated from a synthetic picture, and attribute information is restored from a coded picture. 印刷された画像に属性情報から生成されたコード化画像が埋め込まれている場合に制御部で実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed by a control part, when the coded image produced | generated from the attribute information is embedded in the printed image. ワークフロー処理を規定する情報が人に関連付けて記述されている場合を説明する図である。It is a figure explaining the case where the information which prescribes | regulates a workflow process is described in relation to a person. ワークフロー処理を規定する情報を記録する観点から表現した制御部の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the control part expressed from the viewpoint which records the information which prescribes | regulates a workflow process. ユーザによる画像領域の指定の例を説明する図である。It is a figure explaining the example of designation | designated of the image area by the user. ワークフロー処理を規定する情報の属性情報への書き込みを説明する図である。It is a figure explaining the writing to the attribute information of the information which prescribes | regulates a workflow process.

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。以下では、本発明を、静止画像ファイルに適用する実施の形態について説明するが、動画像ファイルに適用してもよい。また、後述する実施の形態では、便宜的にJPEGフォーマットに準拠したJPEGファイルの例を説明するが、属性情報をデータの一部に含む他の静止画像ファイルに適用してもよい。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the following, an embodiment in which the present invention is applied to a still image file will be described, but it may be applied to a moving image file. In the embodiment described later, an example of a JPEG file conforming to the JPEG format will be described for the sake of convenience. However, the present invention may be applied to other still image files including attribute information as part of data.

<静止画像ファイルのデータ構造>
図1は、本実施の形態で使用するJPEGファイル10のデータ構造を示す図である。JPEGファイル10は、画像のデータファイルの一例であり、JPEGフォーマットに準拠する。
<Data structure of still image file>
FIG. 1 is a diagram showing the data structure of a JPEG file 10 used in the present embodiment. The JPEG file 10 is an example of an image data file and conforms to the JPEG format.

JPEGファイル10は、イメージの開始位置を示すイメージ開始セグメント(Start Of Image segment: SOI)11と、Exif情報などの記述に用いられるタイプ1のアプリケーションセグメント(Application type 1 segment: App1)12と、被写体に関連するワークフロー処理を規定する情報の記述に用いられるタイプ11のアプリケーションセグメント(Application type 11 segment: App11)13と、イメージデータ(Image Data: ID)14と、イメージの終了位置を示すイメージ終了セグメント(End Of Image segment: EOI)15とを有している。ここで、イメージデータ14は第1のデータ領域の一例であり、タイプ11のアプリケーションセグメント13は第2のデータ領域の一例である。イメージデータ14には静止画像の本体が保存される。   The JPEG file 10 includes an image start segment (Start Of Image segment: SOI) 11 indicating the start position of an image, a type 1 application segment (Application type 1 segment: App1) 12 used for description of Exif information, and the like. A type 11 application segment (Application type 11 segment: App11) 13, an image data (Image Data: ID) 14, and an image end segment indicating the end position of the image. (End Of Image segment: EOI) 15. Here, the image data 14 is an example of a first data area, and the type 11 application segment 13 is an example of a second data area. The image data 14 stores the main body of a still image.

イメージ開始セグメント11とイメージ終了セグメント15で挟まれた領域はフレームとも呼ばれる。なお、図1では表していないが、JPEGファイルには、不図示の2つのセグメント、すなわち量子化テーブル定義セグメント(Define Quantization Table segment: DQT)、ハフマンテーブル定義セグメント(Define Huffman Table segment: DHT)も含まれている。これら以外のセグメントは、必要に応じて配置される。図1の場合、タイプ1のアプリケーションセグメント12とタイプ11のアプリケーションセグメント13が、JPEGファイル10の属性情報16である。従って、タイプ1のアプリケーションセグメント12とタイプ11のアプリケーションセグメント13はそれぞれ、属性情報16の一部分である。   A region sandwiched between the image start segment 11 and the image end segment 15 is also called a frame. Although not shown in FIG. 1, the JPEG file also includes two segments (not shown), that is, a quantization table definition segment (Define Quantization Table segment: DQT) and a Huffman table definition segment (Define Huffman Table segment: DHT). include. Segments other than these are arranged as necessary. In the case of FIG. 1, the type 1 application segment 12 and the type 11 application segment 13 are the attribute information 16 of the JPEG file 10. Therefore, each of the type 1 application segment 12 and the type 11 application segment 13 is a part of the attribute information 16.

図1のアプリケーションセグメント13には、JPEGファイル10が作成された静止画像に含まれる被写体に関連するワークフロー処理を規定する情報13A、13Bが記述されている。例えば情報13Aは被写体1に関連するワークフロー処理1に対応する情報であり、情報13Bは被写体2に関連するワークフロー処理2に対応する情報である。タイプ11のアプリケーションセグメント13に格納される情報の個数はゼロでもよいし、1個でもよいし、3個以上でもよい。   In the application segment 13 of FIG. 1, information 13A and 13B that define workflow processing related to the subject included in the still image in which the JPEG file 10 is created are described. For example, the information 13A is information corresponding to the workflow process 1 related to the subject 1, and the information 13B is information corresponding to the workflow process 2 related to the subject 2. The number of pieces of information stored in the type 11 application segment 13 may be zero, one, or three or more.

情報13A及び13Bは、1つの被写体に対応付けられていてもよい。すなわち、1つの被写体に対して複数の情報が対応付けられていてもよい。例えば情報13Aは第1の言語(例えば日本語、第1のOS用)での出力に用いられ、情報13Bは第2の言語(例えば英語、第2のOS用)での出力に用いられる。いずれの言語でワークフロー処理を出力するかは、例えばユーザが選択画面を通じて指定すればよい。ワークフロー処理には、例えば情報13A及び13Bに対応付けられている被写体に含まれる情報の保存、表示、集計、送信、取得などが含まれる。また、ワークフロー処理には、情報13A及び13Bが対応付けられている被写体に対応する実物の機器の動作を制御するための操作パネルの表示が含まれる。なお、情報13A及び13Bはいずれも、1つの機器の操作の種類別に設けられていてもよい。例えば情報13Aはテレビジョン受像機のチャンネルの操作用、情報13Bはテレビジョン受像機の電源ボタンの操作用であってもよい。   Information 13A and 13B may be associated with one subject. That is, a plurality of pieces of information may be associated with one subject. For example, the information 13A is used for output in a first language (eg, Japanese, for the first OS), and the information 13B is used for output in a second language (eg, English, for the second OS). The language in which the workflow process is output may be specified by the user through the selection screen, for example. The workflow process includes, for example, storage, display, aggregation, transmission, and acquisition of information included in the subject associated with the information 13A and 13B. In addition, the workflow processing includes display of an operation panel for controlling the operation of a real device corresponding to the subject associated with the information 13A and 13B. Information 13A and 13B may be provided for each type of operation of one device. For example, the information 13A may be for operating a channel of the television receiver, and the information 13B may be for operating a power button of the television receiver.

情報13A及び13Bはテキストとして記述される。本実施の形態では、テキストの記述に実行言語の一例であるJSON(Java Script Object Notation)を使用する。JSON(登録商標)は、JavaScript(登録商標)におけるオブジェクトの表記法の一部を構文のベースに使用する言語である。勿論、ワークフロー処理の記述に用いる実行言語はJSONに限らない。   Information 13A and 13B is described as text. In the present embodiment, JSON (Java Script Object Notation), which is an example of an execution language, is used for text description. JSON (registered trademark) is a language that uses a part of notation of objects in JavaScript (registered trademark) as a base of syntax. Of course, the execution language used to describe the workflow process is not limited to JSON.

<画像処理システム及び情報処理装置の構成>
図2は、本実施の形態で使用する画像処理システム100の構成例を示す図である。画像処理システム100は、ユーザが画像の視認に使用する携帯型のコンピュータ200と、静止画像の印刷やファックス送信に使用される画像形成装置300とで構成される。ここでのコンピュータ200と画像形成装置300は、いずれも情報処理装置の一例である。図2は、コンピュータ200と画像形成装置300とが不図示の通信手段を介して接続され、JPEGファイル10を送受する様子を表している。もっとも、コンピュータ200と画像形成装置300をそれぞれ単独で使用してもよい。
<Configuration of image processing system and information processing apparatus>
FIG. 2 is a diagram illustrating a configuration example of the image processing system 100 used in the present embodiment. The image processing system 100 includes a portable computer 200 that a user uses for visual recognition of an image, and an image forming apparatus 300 that is used for printing a still image or transmitting a fax. The computer 200 and the image forming apparatus 300 here are both examples of an information processing apparatus. FIG. 2 illustrates a state in which the computer 200 and the image forming apparatus 300 are connected via a communication unit (not shown) and send and receive the JPEG file 10. However, the computer 200 and the image forming apparatus 300 may be used alone.

コンピュータ200には、例えばノート型のコンピュータ、タブレット型のコンピュータ、スマートフォン、携帯電話機、カメラ、携帯型のゲーム機などを使用する。本実施の形態における画像形成装置300は、コピー機能、スキャナ機能、ファックス送受信機能、印刷機能を搭載する装置である。もっとも、画像形成装置300は、1つの機能に特化した装置、例えばスキャナ、ファックス送受信機、プリンタ(3次元プリンタを含む。)、画像編集装置であってもよい。   As the computer 200, for example, a notebook computer, a tablet computer, a smartphone, a mobile phone, a camera, a portable game machine, or the like is used. The image forming apparatus 300 according to the present embodiment is an apparatus equipped with a copy function, a scanner function, a fax transmission / reception function, and a printing function. However, the image forming apparatus 300 may be an apparatus specialized for one function, such as a scanner, a fax machine, a printer (including a three-dimensional printer), or an image editing apparatus.

図3は、本実施の形態に係るコンピュータ200の構成例を示す図である。コンピュータ200は、装置全体を制御する制御部210と、JPEGファイル10等の記憶に用いられる記憶部214と、画像の表示に使用される表示部215と、ユーザの入力操作を受け付ける操作受付部216と、外部装置(例えば画像形成装置300)との通信に用いられる通信部217とを含む。前述した各部はバス218に接続され、バス218を介してデータの授受を行う。   FIG. 3 is a diagram illustrating a configuration example of the computer 200 according to the present embodiment. The computer 200 includes a control unit 210 that controls the entire apparatus, a storage unit 214 that is used to store the JPEG file 10 and the like, a display unit 215 that is used to display an image, and an operation reception unit 216 that receives user input operations. And a communication unit 217 used for communication with an external apparatus (for example, the image forming apparatus 300). Each unit described above is connected to the bus 218 and exchanges data via the bus 218.

制御部210は、制御手段の一例であり、CPU(Central Processing Unit)211、ROM(Read Only Memory)212、RAM(Random Access Memory)213により構成される。ROM212は、CPU211により実行されるプログラムを記憶する。CPU211は、ROM212に記憶されているプログラムを読み出し、RAM213を作業エリアに使用してプログラムを実行する。プログラムの実行を通じ、前述した情報13A、13Bが規定するワークフロー処理が実行される。ワークフロー処理の具体例については後述する。   The control unit 210 is an example of a control unit, and includes a CPU (Central Processing Unit) 211, a ROM (Read Only Memory) 212, and a RAM (Random Access Memory) 213. The ROM 212 stores a program executed by the CPU 211. The CPU 211 reads a program stored in the ROM 212 and executes the program using the RAM 213 as a work area. Through the execution of the program, the workflow process defined by the information 13A and 13B described above is executed. A specific example of the workflow process will be described later.

記憶部214は、ハードディスク装置や半導体メモリなどの記憶装置により構成される。表示部215は、プログラム(オペレーションシステムやファームウェアを含む)の実行を通じて各種の画像を表示するディスプレイ装置である。表示部215は、例えば液晶ディスプレイパネルや有機EL(Electro Luminescence)ディスプレイパネルで構成される。操作受付部216は、ユーザからの操作を受け付けるデバイスであり、例えばキーボード、ボタン、スイッチ、タッチパッド、タッチパネル等で構成される。通信部217は、例えばLAN(Local Area Network)インターフェースで構成される。   The storage unit 214 includes a storage device such as a hard disk device or a semiconductor memory. The display unit 215 is a display device that displays various images through execution of a program (including an operation system and firmware). The display unit 215 is configured by, for example, a liquid crystal display panel or an organic EL (Electro Luminescence) display panel. The operation reception unit 216 is a device that receives an operation from a user, and includes, for example, a keyboard, a button, a switch, a touch pad, a touch panel, and the like. The communication unit 217 is configured by, for example, a LAN (Local Area Network) interface.

図4は、本実施の形態に係る画像形成装置300の構成例を示す図である。画像形成装置300は、装置全体を制御する制御部310と、JPEGファイル10等の記憶に用いられる記憶部314と、操作受付画面や静止画像の表示に使用される表示部315と、ユーザの入力操作を受け付ける操作受付部316と、セットされた原稿の画像を読み取って画像データを生成する画像読み取り部317と、例えば電子写真方式やインクジェット方式で記録材の一例である用紙に画像を形成する画像形成部318と、外部装置(例えばコンピュータ200)との通信に用いられる通信部319と、画像データが表す画像に色補正や階調補正などの画像処理を施す画像処理部320を含む。前述した各部はバス321に接続され、バス321を介してデータの授受を行う。   FIG. 4 is a diagram illustrating a configuration example of the image forming apparatus 300 according to the present embodiment. The image forming apparatus 300 includes a control unit 310 that controls the entire apparatus, a storage unit 314 that is used to store the JPEG file 10 and the like, a display unit 315 that is used to display an operation reception screen and a still image, and user input An operation receiving unit 316 that receives an operation, an image reading unit 317 that reads an image of a set original and generates image data, and an image that forms an image on a sheet that is an example of a recording material using, for example, an electrophotographic method or an inkjet method A communication unit 319 used for communication between the forming unit 318 and an external device (for example, the computer 200), and an image processing unit 320 that performs image processing such as color correction and gradation correction on the image represented by the image data. Each unit described above is connected to the bus 321 and exchanges data via the bus 321.

制御部310は、制御手段の一例であり、CPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313により構成される。ROM312は、CPU311により実行されるプログラムを記憶する。CPU311は、ROM312に記憶されているプログラムを読み出し、RAM313を作業エリアに使用してプログラムを実行する。プログラムの実行を通じ、画像形成装置300の各部が制御される。例えば用紙表面への画像の形成、読み取り画像の生成などが制御される。   The control unit 310 is an example of a control unit, and includes a CPU (Central Processing Unit) 311, a ROM (Read Only Memory) 312, and a RAM (Random Access Memory) 313. The ROM 312 stores a program executed by the CPU 311. The CPU 311 reads a program stored in the ROM 312 and executes the program using the RAM 313 as a work area. Each part of the image forming apparatus 300 is controlled through execution of the program. For example, image formation on the paper surface, generation of a read image, and the like are controlled.

記憶部314は、ハードディスク装置や半導体メモリなどの記憶装置により構成される。表示部315は、プログラム(オペレーションシステムやファームウェアを含む)の実行を通じて各種の画像を表示するディスプレイ装置である。表示部315は、例えば液晶ディスプレイパネルや有機EL(Electro Luminescence)ディスプレイパネルで構成される。操作受付部316は、ユーザからの操作を受け付けるデバイスであり、例えばボタン、スイッチ、タッチパネル等で構成される。   The storage unit 314 includes a storage device such as a hard disk device or a semiconductor memory. The display unit 315 is a display device that displays various images through execution of a program (including an operation system and firmware). The display unit 315 includes, for example, a liquid crystal display panel or an organic EL (Electro Luminescence) display panel. The operation receiving unit 316 is a device that receives an operation from a user, and includes, for example, a button, a switch, a touch panel, and the like.

画像読み取り部317は、いわゆるスキャナ装置である。画像形成部318は、例えば記録材の一例である用紙に画像を形成するプリントエンジンである。通信部319は、例えばLAN(Local Area Network)インターフェースで構成される。画像処理部320は、例えば画像データに色補正や階調補正などの画像処理を施す専用のプロセッサで構成される。   The image reading unit 317 is a so-called scanner device. The image forming unit 318 is a print engine that forms an image on a sheet that is an example of a recording material. The communication unit 319 is configured by, for example, a LAN (Local Area Network) interface. The image processing unit 320 is configured by a dedicated processor that performs image processing such as color correction and gradation correction on image data, for example.

<静止画像例>
まず、各利用形態において使用する静止画像例について説明する。なお、動画像は、複数の静止画像の時間列として構成されるため、以下に説明する静止画像は動画像の場合にも適用される。図5は、各利用形態で使用する静止画像の一例を示す図である。表示部215に表示された静止画像400は、例えばデジタルカメラでオフィス内を撮影した場合に記録メディアに保存される電子写真に当たる。前述したように、静止画像400は、JPEGファイル10のイメージデータ14に保存されている。静止画像400には、画像形成装置401、テレビジョン受像機402、照明器具403、人404、植木405が被写体として写っている。本実施の形態の場合、静止画像400に対応するJPEGファイル10の属性情報16に、これら5つの被写体の少なくとも1つに対応付けられた情報13Aが記述されている。
<Example of still image>
First, an example of a still image used in each usage mode will be described. Since the moving image is configured as a time sequence of a plurality of still images, the still image described below is also applied to a moving image. FIG. 5 is a diagram illustrating an example of a still image used in each usage mode. The still image 400 displayed on the display unit 215 corresponds to an electronic photograph stored in a recording medium when the inside of an office is photographed with a digital camera, for example. As described above, the still image 400 is stored in the image data 14 of the JPEG file 10. The still image 400 includes an image forming apparatus 401, a television receiver 402, a lighting fixture 403, a person 404, and a planting plant 405 as subjects. In the case of the present embodiment, the attribute information 16 of the JPEG file 10 corresponding to the still image 400 describes information 13A associated with at least one of these five subjects.

<復号機能に関する構成>
後述する各利用形態は、コンピュータ200により、又は、画像形成装置300により、又は、コンピュータ200と画像形成装置300の連携により実現される。以下の説明では、特に言及する場合を除き、各利用形態はコンピュータ200により実現される。また、特に言及する場合を除き、JPEGファイル10の属性情報16には、1つの被写体に対して1つの情報13Aが記述されているものとする。情報13Aは、1つの被写体に関連するワークフロー処理を規定する情報であり、JSONで記述される。
<Configuration related to decryption function>
Each usage form to be described later is realized by the computer 200, the image forming apparatus 300, or the cooperation of the computer 200 and the image forming apparatus 300. In the following description, each usage mode is realized by the computer 200 unless otherwise specified. Unless otherwise specified, it is assumed that the attribute information 16 of the JPEG file 10 describes one piece of information 13A for one subject. The information 13A is information that defines workflow processing related to one subject, and is described in JSON.

図6は、ワークフロー処理を規定する情報13Aを属性情報16に含むJPEGファイル10を処理する機能の観点から表現した制御部210の機能構成の一例を示すブロック図である。制御部210は、操作受付部216を通じて入力のあったユーザの指示を認識するために使用される指示認識部221と、被写体に関連するワークフロー処理を規定する情報13Aの実行を制御する実行制御部222として機能する。ここで、指示認識部221は認識部の一例であり、実行制御部222は制御手段の一例である。   FIG. 6 is a block diagram showing an example of the functional configuration of the control unit 210 expressed from the viewpoint of the function of processing the JPEG file 10 that includes information 13A defining workflow processing in the attribute information 16. The control unit 210 includes an instruction recognition unit 221 used for recognizing a user instruction input through the operation reception unit 216, and an execution control unit that controls execution of information 13A that defines workflow processing related to the subject. It functions as 222. Here, the instruction recognition unit 221 is an example of a recognition unit, and the execution control unit 222 is an example of a control unit.

ユーザの指示は、静止画像400に含まれる被写体の選択として認識される。ユーザの指示位置は、静止画像400について定められた座標系(例えば画面左上隅を原点とする座標系)に対する座標(ピクセル値,ピクセル値)として与えられる。指示位置は、静止画像400に重ねて表示されるカーソルの位置として認識してもよく、表示部215に対して手前(ユーザ側)に配置されたタッチパネルセンサをユーザがタッチした位置として認識してもよい。   The user's instruction is recognized as selection of a subject included in the still image 400. The user's designated position is given as coordinates (pixel value, pixel value) with respect to a coordinate system defined for the still image 400 (for example, a coordinate system with the upper left corner of the screen as the origin). The indicated position may be recognized as the position of the cursor displayed superimposed on the still image 400, and the touch panel sensor arranged on the near side (user side) with respect to the display unit 215 is recognized as the position touched by the user. Also good.

実行制御部222は、JPEGファイル10に付属する属性情報16の一部に、被写体に関連するワークフロー処理を規定する情報13Aが記述されている場合、以下の処理を実行する。まず、実行制御部222は、情報13Aが対応付けられている領域又は範囲に、指示認識部221で認識された指示位置が含まれるか否かを判定する。指示認識部221で認識された指示位置が、情報13Aが対応付けられている領域又は範囲に含まれない場合、実行制御部222は、情報13Aが規定するワーク処理を実行しない。一方、指示認識部221で認識された指示位置が、情報13Aが対応付けられている領域又は範囲に含まれる場合、実行制御部222は、情報13Aが規定するワークフロー処理を実行する。   The execution control unit 222 executes the following process when the information 13A defining the workflow process related to the subject is described in a part of the attribute information 16 attached to the JPEG file 10. First, the execution control unit 222 determines whether or not the instruction position recognized by the instruction recognition unit 221 is included in the region or range associated with the information 13A. If the indicated position recognized by the instruction recognizing unit 221 is not included in the area or range associated with the information 13A, the execution control unit 222 does not execute the work process defined by the information 13A. On the other hand, when the instruction position recognized by the instruction recognition unit 221 is included in an area or range associated with the information 13A, the execution control unit 222 executes a workflow process defined by the information 13A.

次に、制御部210で実行される処理の手順を説明する。図7は、制御部210で実行される処理の手順の一例を示すフローチャートである。まず、制御部210は、表示部215に表示する静止画像400に対応するJPEGファイル10を読み出すと、JPEGファイル10に付属する属性情報16を読み込む(ステップ101)。   Next, a procedure of processing executed by the control unit 210 will be described. FIG. 7 is a flowchart illustrating an example of a procedure of processing executed by the control unit 210. First, when the control unit 210 reads the JPEG file 10 corresponding to the still image 400 displayed on the display unit 215, the control unit 210 reads the attribute information 16 attached to the JPEG file 10 (step 101).

次に、制御部210は、表示部215に表示された静止画像400上にあるマウスポインタの位置を認識する(ステップ102)。その後、制御部210は、マウスポインタで指示された位置に、JSONで記述された情報13Aが対応付けられているか否かを判定する(ステップ103)。ステップ103で否定結果が得られた場合、制御部210は、ステップ102に戻る。このことは、マウスポインタで指示された静止画像400上の領域には、情報13Aが対応付けられていないことを意味する。これに対し、ステップ103で肯定結果が得られた場合、制御部210は、JSONで記述されたワークフロー処理を実行する(ステップ104)。実行されるワークフロー処理の内容は、記述される内容により異なる。   Next, the control unit 210 recognizes the position of the mouse pointer on the still image 400 displayed on the display unit 215 (step 102). Thereafter, the control unit 210 determines whether or not the information 13A described in JSON is associated with the position designated by the mouse pointer (step 103). If a negative result is obtained in step 103, the control unit 210 returns to step 102. This means that the information 13A is not associated with the area on the still image 400 indicated by the mouse pointer. On the other hand, when a positive result is obtained in step 103, the control unit 210 executes a workflow process described in JSON (step 104). The contents of the workflow process to be executed differ depending on the contents to be described.

<利用形態>
以下、属性情報16のアプリケーションセグメント13に記述された情報13Aの実行を通じて実現される利用形態を説明する。
<Usage form>
Hereinafter, a usage form realized through execution of the information 13A described in the application segment 13 of the attribute information 16 will be described.

<利用形態1>
ここでは、JPEGファイル10の属性情報16に、静止画像400の被写体の一つである照明器具403に関連するワークフロー処理を規定する情報13Aが記述されている場合を説明する。すなわち、この利用形態1の場合、画像形成装置401、テレビジョン受像機402、人404、植木405には対応する情報13Aは、属性情報16に記述されていない。
<Usage form 1>
Here, a case will be described in which the attribute information 16 of the JPEG file 10 describes information 13A that defines workflow processing related to the lighting fixture 403 that is one of the subjects of the still image 400. That is, in the case of the usage mode 1, the information 13A corresponding to the image forming apparatus 401, the television receiver 402, the person 404, and the planting plant 405 is not described in the attribute information 16.

この利用形態1におけるワークフロー処理は、ユーザによる指示位置の確認、照明器具403の点灯と消灯をコントロールするための操作画面の表示、表示された操作画面に対する操作入力の受け付け、受け付けた操作入力に対応するコマンド信号の出力、照明器具403の表示態様の変更の順番に実行される。   The workflow processing in this usage mode 1 corresponds to confirmation of the user's designated position, display of an operation screen for controlling lighting and extinction of the lighting fixture 403, reception of operation input for the displayed operation screen, and accepted operation input The command signal is output and the display mode of the lighting fixture 403 is changed in this order.

以下、図8及び図9を用いて、本利用形態1におけるワークフロー処理の実行の様子を説明する。図8は、利用形態1のうちコマンドの出力までを説明する図である。図9は、利用形態1のうち静止画像400に加えられる変化例を説明する図である。   Hereinafter, the state of execution of the workflow process in the usage mode 1 will be described with reference to FIGS. 8 and 9. FIG. 8 is a diagram illustrating command output up to usage mode 1. FIG. 9 is a diagram for explaining a change example added to the still image 400 in the usage pattern 1.

まず、ユーザは、表示部215の画面上に静止画像400を表示させる。すると、静止画像400の属性情報16が実行制御部222に与えられる。実行制御部222は、属性情報16に記述されている内容を復号し、アプリケーションセグメント13に記述されている情報13Aが対応付けられている領域又は範囲を特定する。   First, the user displays the still image 400 on the screen of the display unit 215. Then, the attribute information 16 of the still image 400 is given to the execution control unit 222. The execution control unit 222 decrypts the contents described in the attribute information 16 and specifies an area or range associated with the information 13A described in the application segment 13.

次に、ユーザは、静止画像400における照明器具403の上にマウスポインタ501を移動させる(図中の丸付き数字1で示されるステップ)。表示部215の手前側にタッチパネルセンサが配置されている場合、この操作は指先によるタッチ操作で行われる。なお、静止画像400内の照明器具403は、撮影した時点の状態であるので点灯状態である。このユーザの操作入力は、操作受付部216を通じて受付され、指示認識部221に与えられる。   Next, the user moves the mouse pointer 501 over the lighting fixture 403 in the still image 400 (step indicated by a circled number 1 in the figure). When the touch panel sensor is arranged on the front side of the display unit 215, this operation is performed by a touch operation with a fingertip. Note that the lighting fixture 403 in the still image 400 is in a lighting state because it is in a state at the time of shooting. This user operation input is received through the operation receiving unit 216 and given to the instruction recognizing unit 221.

この利用形態の場合、照明器具403には情報13Aが対応付けられているので、実行制御部222は、情報13Aに記述されているワークフロー処理を実行する。まず、表示部215の画面上に照明器具403を操作するためのポップアップ画面510を表示させる(図中の丸付き数字2で示されるステップ)。ポップアップ画面510にはオンボタン511とオフボタン512が示されている。次に、ユーザは、オフボタン512の上にマウスポインタ501を移動させ、オフボタン512をクリックする。この操作入力は、操作受付部216から指示認識部221に与えられる。ポップアップ画面510は、被写体に関連付けられた画面の一例である。   In the case of this usage mode, since the information 13A is associated with the lighting fixture 403, the execution control unit 222 executes the workflow process described in the information 13A. First, a pop-up screen 510 for operating the lighting fixture 403 is displayed on the screen of the display unit 215 (step indicated by a circled number 2 in the figure). On the pop-up screen 510, an on button 511 and an off button 512 are shown. Next, the user moves the mouse pointer 501 on the off button 512 and clicks the off button 512. This operation input is given from the operation reception unit 216 to the instruction recognition unit 221. The pop-up screen 510 is an example of a screen associated with the subject.

実行制御部222は、オフボタン512がクリックされたことを認識すると、静止画像400に写っている実在の照明器具601に対して消灯コマンドを送信する(図中の丸付き数字3で示されるステップ)。照明器具601の制御に必要なコマンド信号は、コンピュータ200に事前に登録されている。なお、照明器具601が赤外線受光部を有し、その点灯や消灯が赤外線信号の受信により実行される場合、実行制御部222は、コンピュータ200に搭載された不図示の赤外線発光部を使用して消灯コマンドを出力する。   When the execution control unit 222 recognizes that the off button 512 has been clicked, the execution control unit 222 transmits a turn-off command to the actual lighting fixture 601 shown in the still image 400 (step indicated by a circled number 3 in the figure). ). Command signals necessary for controlling the lighting apparatus 601 are registered in the computer 200 in advance. In addition, when the lighting fixture 601 has an infrared light receiving unit and the turning on and off thereof is executed by receiving an infrared signal, the execution control unit 222 uses an infrared light emitting unit (not shown) mounted on the computer 200. Outputs the turn-off command.

この結果、実在の照明器具601は、点灯状態から消灯状態に切り替わる。すなわち、静止画像400は、実在の照明器具601のコントローラとして用いられる。なお、消灯コマンドの出力先は、照明器具601の操作用に実在するリモートコントローラであってもよい。この場合、リモートコントローラを介して消灯コマンドが照明器具601に送信される。   As a result, the actual lighting fixture 601 is switched from the lit state to the unlit state. That is, the still image 400 is used as a controller for the actual lighting fixture 601. The output destination of the turn-off command may be a remote controller that actually exists for the operation of the lighting fixture 601. In this case, a turn-off command is transmitted to the lighting fixture 601 via the remote controller.

ところで、静止画像400に対応するJPEGファイル10は、デジタルデータであるので複数のユーザに配信することも容易である。換言すると、仮想のコントローラを複数人で共有することも容易である。従って、物理的なコントローラを複数人で共有する場合のような制約がない。このため、実在する照明器具601の点灯と消灯は、各自のコンピュータ200を通じて操作される。さらに、実在の照明器具601は、その撮影画像である静止画像400の照明器具403と一対一に対応する。このため、ユーザによる直感的な制御対象の特定が実現される。また、複数のユーザによる被写体のコントロール状況を分かりやすくする工夫として、静止画像400上に表示される仮想のコントローラに、現在の操作者名等を表示してもよい。   Incidentally, since the JPEG file 10 corresponding to the still image 400 is digital data, it can be easily distributed to a plurality of users. In other words, it is easy for a plurality of people to share a virtual controller. Therefore, there is no restriction as in the case where a physical controller is shared by a plurality of people. For this reason, lighting and extinguishing of the actual lighting fixture 601 are operated through each computer 200. Furthermore, the actual lighting fixture 601 has a one-to-one correspondence with the lighting fixture 403 of the still image 400 that is the captured image. For this reason, intuitive specification of the control target by the user is realized. Further, as a device for making it easy to understand the control state of the subject by a plurality of users, the current operator name or the like may be displayed on a virtual controller displayed on the still image 400.

なお、実在する照明器具601又はそのリモートコントローラがIoT(Internet of Things)に対応していれば、静止画像400を閲覧しているユーザの居場と実在する照明器具601の取り付け場所とが物理的に離れていてもよい。ただし、制御対象とする照明器具601を特定するための追加の仕組みが必要になる。照明器具601の特定には、例えば撮像位置の情報、各機器に割り当てられている固有の情報、各機器に割り当てられている通信用のアドレスなどを必要に応じて使用する。   If the existing lighting fixture 601 or its remote controller is compatible with IoT (Internet of Things), the location of the user viewing the still image 400 and the location where the actual lighting fixture 601 is attached are physically located. You may be away. However, an additional mechanism for specifying the lighting fixture 601 to be controlled is required. For specifying the lighting fixture 601, for example, information on an imaging position, unique information assigned to each device, a communication address assigned to each device, and the like are used as necessary.

この後、本利用形態1における実行制御部222は、図9に示すように、画像処理により静止画像400に含まれる照明器具403の表示形態に変化を与える(図中の丸付き数字4で示されるステップ)。例えば照明器具403の消灯を反映するように対応領域の表示輝度を低下させる。なお、消灯された状態の照明器具403の画像イメージを作成し、作成された画像イメージで照明器具403の表示を置換してもよい。   Thereafter, as shown in FIG. 9, the execution control unit 222 in the present usage mode 1 changes the display mode of the lighting fixture 403 included in the still image 400 by image processing (indicated by a circled numeral 4 in the figure). Step). For example, the display brightness of the corresponding area is reduced so as to reflect the turn-off of the lighting fixture 403. Note that an image image of the lighting fixture 403 that is turned off may be created, and the display of the lighting fixture 403 may be replaced with the created image image.

すなわち、静止画像400は、実在する照明器具601が消灯状態に変化したことの確認に用いられる。このように被写体の表示形態を制御内容に応じて変化させる機能は、遠隔地から照明器具601の点灯又は消灯が制御される場合のユーザの利便性を向上させる。もちろん、複数のユーザで静止画像400に映った被写体をコントロールする場合、各被写体をコントロールすることで変化した表示形態を各静止画像に反映させるようにしてもよい。なお、静止画像400そのものは別物であっても、同一の被写体が映っている場合、ネットワークを介して同一の被写体の状況を取得し、各静止画像に映っている同一の被写体の表示形態を変化させるようにしても良い。   That is, the still image 400 is used for confirming that the existing lighting fixture 601 has changed to the extinguished state. The function of changing the display mode of the subject according to the control content in this way improves the convenience for the user when the lighting device 601 is controlled to be turned on or off from a remote location. Of course, when a plurality of users control a subject reflected in the still image 400, a display form changed by controlling each subject may be reflected in each still image. Even if the still image 400 itself is different, if the same subject is shown, the situation of the same subject is acquired via the network, and the display form of the same subject shown in each still image is changed. You may make it let it.

前述の説明では、照明器具403が静止画像400上で指定された場合について説明したが、例えばテレビジョン受像機402が静止画像400上で指定された場合には、静止画像400に対応するJPEGファイル10の属性情報16に記述されている情報13Aに基づいて、電源スイッチ、チャンネルの変更ボタン、チャンネルの選択ボタン、音量調整ボタンなどの操作画面を静止画像400に表示してもよい。また、電動式の窓やドアが指定された場合には、窓やドアの開閉ボタンを表示してもよい。これらの場合も、操作の結果を反映させて静止画像400に表示される被写体の色や形状を変更してもよい。   In the above description, the case where the lighting apparatus 403 is specified on the still image 400 has been described. However, for example, when the television receiver 402 is specified on the still image 400, a JPEG file corresponding to the still image 400 is used. Operation screens such as a power switch, a channel change button, a channel selection button, and a volume adjustment button may be displayed on the still image 400 based on the information 13A described in the ten attribute information 16. When an electric window or door is designated, an opening / closing button for the window or door may be displayed. Also in these cases, the color and shape of the subject displayed on the still image 400 may be changed by reflecting the result of the operation.

また、ワークフロー処理を通じて実現される機能が1つの静止画像400に対して複数用意されている場合には、JPEGファイル10を読み込むと、用意されている機能の一覧を静止画像400に表示してもよい。もっとも、この表示は、マウスポインタ501が情報13Aの記述されている被写体を指示した場合に行ってもよい。また、情報13Aが登録された被写体が静止画像400に1つしか写っていない場合、静止画像400に対応するJPEGファイル10が読み込まれると、マウスポインタ501による指示がなくても、予め定めておいたワークフロー処理が実行されるようにしてもよい。   In addition, when a plurality of functions realized through workflow processing are prepared for one still image 400, when the JPEG file 10 is read, a list of prepared functions may be displayed on the still image 400. Good. However, this display may be performed when the mouse pointer 501 indicates the subject in which the information 13A is described. In addition, when only one subject in which the information 13A is registered appears in the still image 400, when the JPEG file 10 corresponding to the still image 400 is read, even if there is no instruction from the mouse pointer 501, it is determined in advance. The workflow processing that has been performed may be executed.

この利用形態では、コンピュータ200にアプリケーションセグメント13の復号機能が搭載されているが、この復号機能が搭載されていないコンピュータ200では、当然ながら情報13Aに規定されたワークフロー処理を実行できない。この場合、コンピュータ200は、通信手段を介して、アプリケーションセグメント13の復号機能を搭載する外部装置を検索し、発見された外部装置と協働して前述の機能を実現してもよい。例えばコンピュータ200から画像形成装置300に属性情報16(少なくともアプリケーションセグメント13)を送信して復号させ、復号結果を画像形成装置300から取得してもよい。   In this usage mode, the decryption function for the application segment 13 is installed in the computer 200. However, the computer 200 not equipped with this decryption function cannot execute the workflow process defined in the information 13A. In this case, the computer 200 may search for an external device equipped with the decoding function of the application segment 13 via the communication unit, and may realize the above-described function in cooperation with the discovered external device. For example, the attribute information 16 (at least the application segment 13) may be transmitted from the computer 200 to the image forming apparatus 300 to be decoded, and the decoding result may be acquired from the image forming apparatus 300.

<利用形態2>
ここでは、JPEGファイル10の属性情報16に被写体に関連するワークフロー処理を規定する情報13Aが含まれる場合に、対応する静止画像400を画像編集又は複製する場合に実行される処理の例を説明する。なお、利用形態2における処理も、コンピュータ200の制御部210が実行する。
<Usage form 2>
Here, an example of processing executed when the corresponding still image 400 is image-edited or duplicated when the attribute information 16 of the JPEG file 10 includes information 13A defining workflow processing related to the subject will be described. . Note that the control unit 210 of the computer 200 also executes the processing in the usage mode 2.

図10は、ワークフロー処理を規定する情報13Aが属性情報16に記述されているJPEGファイル10を複製する場合の動作例を説明する図である。図10では、JPEGファイル10の全体、すなわち属性情報16も含めて複製されている。このように複製されたJPEGファイル10を複数のユーザに配布すれば、前述したように複数人が静止画像400を通じて被写体に対応する実在の機器をそれぞれ操作する利用形態が実現される。   FIG. 10 is a diagram for explaining an operation example when the JPEG file 10 in which the information 13A defining the workflow processing is described in the attribute information 16 is copied. In FIG. 10, the entire JPEG file 10, that is, the attribute information 16 is also copied. If the JPEG file 10 thus replicated is distributed to a plurality of users, a usage mode in which a plurality of persons operate actual devices corresponding to the subject through the still image 400 as described above is realized.

図11は、ワークフロー処理を規定する情報13Aが属性情報16に記述されているJPEGファイル10を複製する場合の他の動作例を説明する図である。図11では、JPEGファイル10の複製の際に、属性情報16から情報13Aが削除される。この場合、オリジナルの電子写真を保持するユーザだけが、被写体に対応する実在の機器に対する静止画像400からの制御権を有することになる。なお、JPEGファイル10を複製する際に、属性情報16の全体を複製するか属性情報16のうち情報13Aを削除するかはユーザによる選択で行ってもよい。ここでの選択は、予め行ってもよいし、複製のタイミングで表示される操作画面を通じて行ってもよい。   FIG. 11 is a diagram for explaining another example of operation when the JPEG file 10 in which the information 13A defining the workflow processing is described in the attribute information 16 is copied. In FIG. 11, the information 13 </ b> A is deleted from the attribute information 16 when the JPEG file 10 is copied. In this case, only the user who holds the original electronic photograph has the control right from the still image 400 for the actual device corresponding to the subject. Note that when copying the JPEG file 10, whether to copy the entire attribute information 16 or to delete the information 13 </ b> A from the attribute information 16 may be selected by the user. The selection here may be performed in advance or may be performed through an operation screen displayed at the timing of duplication.

図12は、JPEGファイル10の複製のタイミングで表示されるワークフロー処理を規定する情報13Aの複製を確認するポップアップ画面520の表示例を示す図である。ポップアップ画面520には、複製対象となっているJPEGファイル10の属性情報16には実行形式の情報13Aが含まれること、実行形式の情報13Aも含めて複製してもよいかの確認を求める内容とが含まれる。なお、YESボタン521がユーザにより選択された場合、制御部210は属性情報16の全体を複製し、NOボタン522がユーザにより選択された場合、制御部210は情報13Aを除いた属性情報16を複製する。   FIG. 12 is a diagram illustrating a display example of a pop-up screen 520 for confirming the duplication of the information 13A that defines the workflow process displayed at the duplication timing of the JPEG file 10. The pop-up screen 520 is a content for requesting confirmation that the attribute information 16 of the JPEG file 10 to be copied includes the execution format information 13A and that the execution format information 13A may be copied. And are included. In addition, when the YES button 521 is selected by the user, the control unit 210 duplicates the entire attribute information 16, and when the NO button 522 is selected by the user, the control unit 210 displays the attribute information 16 excluding the information 13A. Duplicate.

図13は、ワークフロー処理を規定する情報13Aが属性情報16に記述されている被写体を画像編集により削除する場合の動作例を説明する図である。図13では、情報13Aはテレビジョン受像機402に対応付けられており、テレビジョン受像機402の画像が静止画像400から削除されている。この場合、制御部210は、テレビジョン受像機402に対応付けられている情報13Aを属性情報16から削除する。この削除により、静止画像400上に既に存在しない被写体に関連する操作画面が表示される不都合が回避される。   FIG. 13 is a diagram for explaining an operation example when the subject whose information 13A defining the workflow processing is described in the attribute information 16 is deleted by image editing. In FIG. 13, the information 13 </ b> A is associated with the television receiver 402, and the image of the television receiver 402 is deleted from the still image 400. In this case, the control unit 210 deletes the information 13A associated with the television receiver 402 from the attribute information 16. This deletion avoids the inconvenience that an operation screen related to a subject that does not already exist on the still image 400 is displayed.

図14は、ワークフロー処理を規定する情報13Aが属性情報16に記述されている1つの被写体を画像編集により複製する又は切り取る場合の動作例を説明する図である。図14では、情報13Aは照明器具403に対応付けられている。照明器具403の画像部分(枠線530で囲まれた部分)について新たに作成されるJPEGファイル10の属性情報16には、照明器具403に対応する情報13Aだけが複製されている。すなわち、テレビジョン受像機402に対応する情報13Bは複製されていない。このように、元の静止画像400の属性情報16に記述されていた情報13Aは、対応付けられている被写体を含む部分画像とともに、新たなJPEGファイル10に複製される。   FIG. 14 is a diagram for explaining an operation example in the case where one subject whose information 13A defining workflow processing is described in the attribute information 16 is duplicated or cut out by image editing. In FIG. 14, the information 13 </ b> A is associated with the lighting fixture 403. Only the information 13A corresponding to the lighting fixture 403 is duplicated in the attribute information 16 of the JPEG file 10 newly created for the image portion of the lighting fixture 403 (the portion surrounded by the frame line 530). That is, the information 13B corresponding to the television receiver 402 is not duplicated. As described above, the information 13A described in the attribute information 16 of the original still image 400 is copied to the new JPEG file 10 together with the partial image including the associated subject.

この部分画像の複製機能は、静止画像400に含まれる電子機器を1つの画面上に配置する操作画面の作成に用いてもよい。図15は、複数の静止画像400から複製又は切り出された電子機器の小画像を1枚の静止画像540上に配置した例を示す図である。図15の場合、静止画像540には、リビングに配置された画像形成装置の画像、テレビジョン受像機の画像、照明器具の画像、空調機の画像、扇風機の画像、ビデオデッキの画像、エントランスに配置された照明器具の画像、子供部屋に配置された空調機の画像が含まれている。前述したように、これらの画像に対応するJPEGファイル10には被写体である電子機器に関する情報13Aが含まれている。従って、静止画像540は複数の電子機器の操作画面として用いられる。   This partial image copying function may be used to create an operation screen in which electronic devices included in the still image 400 are arranged on one screen. FIG. 15 is a diagram illustrating an example in which small images of an electronic device copied or cut out from a plurality of still images 400 are arranged on one still image 540. In the case of FIG. 15, the still image 540 includes an image of an image forming apparatus arranged in a living room, an image of a television receiver, an image of a lighting fixture, an image of an air conditioner, an image of a fan, an image of a video deck, and an entrance. It includes an image of the lighting fixtures arranged and an image of the air conditioner arranged in the children's room. As described above, the JPEG file 10 corresponding to these images includes information 13A relating to the electronic device that is the subject. Therefore, the still image 540 is used as an operation screen for a plurality of electronic devices.

<利用形態3>
ここでは、JPEGファイル10と他の文書との組み合わせにより実現される新たな利用形態の提供について説明する。図16は、ワークフロー処理を規定する情報13Aが属性情報16に記述されているJPEGファイル10の画像を電子文書550に貼り付ける場合に現れる画面例を説明する図である。電子文書550は文書ファイルの一例である。図16の場合、電子文書550には、実行言語による記述が埋め込まれた領域551が含まれる。領域551には、例えば実行言語で記述された情報13Aを含むJPEGファイル10が配置された場合に開かれるポップアップ画面552の配置位置やサイズを規定する内容がhtml言語で記述されている。
<Usage form 3>
Here, provision of a new usage form realized by a combination of the JPEG file 10 and another document will be described. FIG. 16 is a diagram illustrating an example of a screen that appears when an image of the JPEG file 10 in which information 13A defining workflow processing is described in the attribute information 16 is pasted on the electronic document 550. The electronic document 550 is an example of a document file. In the case of FIG. 16, the electronic document 550 includes an area 551 in which a description in an execution language is embedded. In the area 551, for example, the contents defining the arrangement position and size of the pop-up screen 552 opened when the JPEG file 10 including the information 13A described in the execution language is arranged are described in the html language.

この場合、ポップアップ画面552に表示される内容はJPEGファイル10側の情報13Aで規定され、ポップアップ画面552の配置位置やサイズは電子文書550側の領域551に記述された内容で規定される。これにより、情報13Aで規定されるワークフロー処理だけでは得られない複雑なワークフロー処理が実現される。なお、情報13Aと領域551側の記述との組み合わせにより、特殊な文字や図形が浮かび上がるようにしてもよい。   In this case, the contents displayed on the pop-up screen 552 are defined by the information 13A on the JPEG file 10 side, and the arrangement position and size of the pop-up screen 552 are defined by the contents described in the area 551 on the electronic document 550 side. Thereby, complicated workflow processing that cannot be obtained only by the workflow processing defined by the information 13A is realized. It should be noted that special characters and figures may emerge depending on the combination of the information 13A and the description on the area 551 side.

図17は、ワークフロー処理を規定する情報13Aが属性情報16に記述されているJPEGファイル10の画像を電子文書550に貼り付ける場合に現れる他の画面例を説明する図である。図17では、例えば実行言語で記述された情報13Aを、電子文書550を表示するアプリケーション600のマクロ601と組み合わせて動作させ、その実行結果がポップアップ画面553として表示される例を表している。例えば情報13Aのワークフロー処理によって収集された被写体の価格情報を、マクロを用いて集計してもよい。また、被写体がレシートである場合、情報13Aは料金部分を抽出してマクロに与える内容でもよい。   FIG. 17 is a diagram for explaining another example of a screen that appears when an image of the JPEG file 10 in which information 13A defining workflow processing is described in the attribute information 16 is pasted on the electronic document 550. FIG. 17 illustrates an example in which information 13A described in an execution language is operated in combination with the macro 601 of the application 600 that displays the electronic document 550, and the execution result is displayed as a pop-up screen 553. For example, the price information of the subject collected by the workflow process of the information 13A may be totaled using a macro. In addition, when the subject is a receipt, the information 13A may be contents that extract a fee portion and give it to a macro.

<利用形態4>
ここでは、ワークフロー処理を規定する情報13Aが属性情報16に記述されているJPEGファイル10の画像を記録材である用紙に印刷する場合の動作について説明する。前述の利用形態では、属性情報16の複製がデータファイルの形態で実行されているが、この利用形態では用紙を用いて行う。図18は、属性情報16の内容を表す低視認性のコード化画像560を静止画像400に埋め込んで印刷する利用形態を説明する図である。
<Usage form 4>
Here, an operation in the case where an image of the JPEG file 10 in which the information 13A defining the workflow process is described in the attribute information 16 is printed on a sheet of recording material will be described. In the above-described usage mode, the attribute information 16 is copied in the form of a data file, but in this usage mode, it is performed using paper. FIG. 18 is a diagram illustrating a usage mode in which a low-visibility coded image 560 representing the content of the attribute information 16 is embedded in a still image 400 and printed.

低視認性のコード化画像560は、出力文書の背景に配置される目立たない極小ドットで構成される画像である。このコード化画像560の作成技術には、例えばMISTCODE(Micro-dot Iterated and Superimposed Tag CODE)を使用する。MISTCODEは、ドットをある規則で配置したパターンで構成され、このパターンを用紙中に分散配置して情報を埋め込む。コンピュータ200の制御部210は、属性情報16から作成した低視認性のコード化画像560を静止画像400に埋め込んだ合成画像570を生成し、当該情報を画像形成装置300に与える。   The low visibility coded image 560 is an image composed of inconspicuous tiny dots arranged in the background of the output document. For example, MISTCODE (Micro-dot Iterated and Superimposed Tag CODE) is used as a technique for creating the coded image 560. MISTCODE is composed of a pattern in which dots are arranged according to a certain rule, and this pattern is dispersedly arranged in a sheet to embed information. The control unit 210 of the computer 200 generates a composite image 570 in which the low-visibility coded image 560 created from the attribute information 16 is embedded in the still image 400, and gives the information to the image forming apparatus 300.

図19は、JPEGファイル10を印刷する場合に制御部210で実行される処理の一例を示すフローチャートである。まず、印刷の指示を受けた制御部210は、印刷対象であるJPEGファイル10から属性情報16を取得する(ステップ201)。次に、制御部210は、属性情報16からコード化画像560を生成する(ステップ202)。もっとも、ワークフロー処理を規定する情報13Aは印刷の際に削除してもよい。   FIG. 19 is a flowchart illustrating an example of processing executed by the control unit 210 when the JPEG file 10 is printed. First, the control unit 210 that has received a print instruction acquires the attribute information 16 from the JPEG file 10 to be printed (step 201). Next, the control unit 210 generates a coded image 560 from the attribute information 16 (step 202). However, the information 13A defining the workflow process may be deleted at the time of printing.

この後、制御部210は、生成されたコード化画像560と画像本体(すなわち、イメージデータ14)に相当する静止画像400を合成し、合成画像570を生成する(ステップ203)。その後、制御部210は、合成画像570を画像形成装置300に出力する(ステップ204)。なお、コード化画像560と静止画像400の合成処理は画像形成装置300内で実行されてもよい。   Thereafter, the control unit 210 synthesizes the generated coded image 560 and the still image 400 corresponding to the image main body (that is, the image data 14) to generate a synthesized image 570 (step 203). Thereafter, the control unit 210 outputs the composite image 570 to the image forming apparatus 300 (step 204). Note that the composition processing of the coded image 560 and the still image 400 may be executed in the image forming apparatus 300.

合成画像570を受け取った場合は、逆の処理が実行される。図20は、合成画像570からコード化画像560と静止画像400を分離し、コード化画像560から属性情報16を復元する様子を説明する図である。図20の処理の流れは、図18の処理の流れの逆向きになる。   When the composite image 570 is received, the reverse process is executed. FIG. 20 is a diagram illustrating a state in which the coded image 560 and the still image 400 are separated from the composite image 570 and the attribute information 16 is restored from the coded image 560. The process flow in FIG. 20 is opposite to the process flow in FIG.

図21は、印刷された画像に属性情報16から生成されたコード化画像560が埋め込まれている場合に制御部210で実行される処理の一例を示すフローチャートである。図21は、スキャナを搭載する画像形成装置300で生成されたスキャン画像が通信手段を通じてコンピュータ200に取り込まれた場合の動作である。勿論、画像形成装置300が後述する処理を実行してもよい。   FIG. 21 is a flowchart illustrating an example of processing executed by the control unit 210 when a coded image 560 generated from the attribute information 16 is embedded in a printed image. FIG. 21 shows the operation when the scan image generated by the image forming apparatus 300 equipped with the scanner is taken into the computer 200 through the communication means. Of course, the image forming apparatus 300 may execute processing described later.

まず、制御部210は、スキャン画像を解析する(ステップ301)。次に、制御部210は、スキャン画像に埋め込み情報があるか否かを判定する(ステップ302)。ステップ302で否定結果が得られた場合、制御部210は後述する処理を実行することなく終了する。一方、ステップ302で肯定結果が得られた場合、制御部210は、スキャン画像に埋め込まれている情報を復号する(ステップ303)。具体的にはコード化画像560が復号される。この後、制御部210は、スキャン画像をJPEGファイル10として保存し、その際に、復号された情報を属性情報16に記述する(ステップ304)。なお、アプリケーションセグメント13に対応付けられているワークフロー処理についてはJSONで記述される。   First, the control unit 210 analyzes the scanned image (step 301). Next, the control unit 210 determines whether or not there is embedded information in the scanned image (step 302). If a negative result is obtained in step 302, the control unit 210 ends without executing a process described later. On the other hand, when a positive result is obtained in step 302, the control unit 210 decodes information embedded in the scanned image (step 303). Specifically, the coded image 560 is decoded. Thereafter, the control unit 210 stores the scanned image as the JPEG file 10 and describes the decoded information in the attribute information 16 (step 304). The workflow process associated with the application segment 13 is described in JSON.

以上の処理機能をコンピュータ200に搭載することにより、JPEGファイル10の属性情報16がコード化画像560として埋め込まれている印刷物からワークフロー処理を規定する情報13Aを含むJPEGファイル10が生成される。   By mounting the above processing functions on the computer 200, the JPEG file 10 including the information 13A defining the workflow processing is generated from the printed matter in which the attribute information 16 of the JPEG file 10 is embedded as the coded image 560.

<利用形態5>
前述の利用形態では、ワークフロー処理を規定する情報13Aが被写体である機器に関連付けられている場合を想定した。しかし、ワークフロー処理を規定する情報13Aは、人404や植木405などに付されていてもよい。図22は、ワークフロー処理を規定する情報13Aが人404に関連付けて記述されている場合を説明する図である。
<Usage form 5>
In the above-described usage mode, it is assumed that the information 13A defining the workflow process is associated with the device that is the subject. However, the information 13A that defines the workflow process may be attached to the person 404, the planted plant 405, or the like. FIG. 22 is a diagram for explaining a case where the information 13A defining the workflow process is described in association with the person 404.

図22の場合、マウスポインタ501で人404が指定されると、制御部210は属性情報16から情報13Aを読み出し、情報13Aに記述されているワークフロー処理を実行する。この例では、ワークフロー処理の実行により、被写体であるAに関する個人情報がデータベースから読み出され、ポップアップ画面580に表示されている。また、「みなさんよろしく」との音声ファイルが再生される。ここでの再生音声は、被写体に関連づけられた音の一例である。   In the case of FIG. 22, when the person 404 is designated by the mouse pointer 501, the control unit 210 reads the information 13A from the attribute information 16 and executes the workflow process described in the information 13A. In this example, the personal information related to the subject A is read from the database and displayed on the pop-up screen 580 by executing the workflow process. In addition, an audio file “Thank you all” is played. The reproduced sound here is an example of sound associated with the subject.

<利用形態6>
前述の利用形態の説明では、JPEGファイル10の属性情報16に被写体に関連するワークフロー処理を記述した情報13Aが含まれている場合に、情報13Aを読み出したコンピュータ200が実行する機能について説明した。この利用形態では、JPEGファイル10の属性情報16に情報13Aを記録する場合について説明する。
<Usage form 6>
In the above description of the usage mode, the function executed by the computer 200 that has read the information 13A when the attribute information 16 of the JPEG file 10 includes the information 13A describing the workflow processing related to the subject has been described. In this usage mode, a case where the information 13A is recorded in the attribute information 16 of the JPEG file 10 will be described.

図23は、ワークフロー処理を規定する情報13Aを記録する観点から表現した制御部210の機能構成の一例を示すブロック図である。制御部210は、ユーザが指定する画像位置を検出する位置検出部231と、画像処理技術を用いて登録されている画像に合致する被写体を検出する被写体検出部232と、属性情報16のアプリケーションセグメント13に、検出位置にワークフロー処理を関連付けて記述する属性情報記述部233として機能する。   FIG. 23 is a block diagram illustrating an example of a functional configuration of the control unit 210 expressed from the viewpoint of recording information 13A defining workflow processing. The control unit 210 includes a position detection unit 231 that detects an image position designated by the user, a subject detection unit 232 that detects a subject that matches an image registered using an image processing technique, and an application segment of the attribute information 16 13 functions as an attribute information description unit 233 that describes the workflow process in association with the detected position.

図24は、ユーザによる画像領域の指定の例を説明する図である。図24では、マウスポインタ501のドラッグにより、テレビジョン受像機402の表示位置を囲むように領域590が設定されている。この領域590を与える座標情報を指定位置として入力する位置検出部231は、最終的に確定した領域の座標情報を位置情報として出力する。   FIG. 24 is a diagram for explaining an example of designation of an image region by the user. In FIG. 24, an area 590 is set so as to surround the display position of the television receiver 402 by dragging the mouse pointer 501. The position detection unit 231 that inputs the coordinate information giving the area 590 as the designated position outputs the coordinate information of the finally determined area as the position information.

被写体検出部232は、予め情報13Aを記録する被写体の画像が登録されている場合に用いられる。被写体検出部232は、JPEGファイル10に含まれるイメージデータ14(すなわち静止画像400)と登録画像をマッチングし、登録画像にマッチした被写体が存在する座標情報を位置情報として出力する。   The subject detection unit 232 is used when an image of a subject that records the information 13A is registered in advance. The subject detection unit 232 matches the image data 14 (that is, the still image 400) included in the JPEG file 10 with the registered image, and outputs coordinate information where a subject matching the registered image exists as position information.

属性情報記述部233は、ワークフロー処理の記述を位置情報に関連付けて属性情報16のアプリケーションセグメント13に記録する。ここで、ワークフロー処理の記述は、ユーザが編集してもよいし、予め用意された記述を用いてもよい。また、ワークフロー処理は、JSONで記述したテキストで記述される。   The attribute information description unit 233 records the workflow process description in the application segment 13 of the attribute information 16 in association with the position information. Here, the description of the workflow process may be edited by the user, or a description prepared in advance may be used. Further, the workflow process is described in text described in JSON.

図25は、ワークフロー処理を規定する情報13Aの属性情報16への書き込みを説明する図である。図25の上段に示すJPEGファイル10の属性情報16には情報13Aが含まれていないが、下段に示すJPEGファイル10の属性情報16には情報13Aが追加されている。このように、既存のJPEGファイル10にワークフロー処理を後から追記してもよい。   FIG. 25 is a diagram for explaining the writing of the information 13A defining the workflow processing to the attribute information 16. Although the information 13A is not included in the attribute information 16 of the JPEG file 10 shown in the upper part of FIG. 25, the information 13A is added to the attribute information 16 of the JPEG file 10 shown in the lower part. In this way, workflow processing may be added to the existing JPEG file 10 later.

<他の実施形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態では、画像のファイルフォーマットの例として静止画像のJPEGファイルで本発明の実施形態を説明したが、適用可能なファイルフォーマットは静止画像やJPEGファイルに限らず、動画像やJPEG以外のファイルフォーマットにも適用できる。上記実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
<Other embodiments>
Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope described in the above embodiments. In the above-described embodiment, the embodiment of the present invention has been described using a JPEG file of a still image as an example of the file format of the image. It can also be applied to file formats. It is clear from the description of the scope of the claims that various modifications or improvements added to the above embodiment are also included in the technical scope of the present invention.

10…JPEGファイル、13…タイプ11のアプリケーションセグメント、13A、13B…ワークフロー処理を規定する情報、100…画像処理システム、200…コンピュータ、221…指示認識部、222…実行制御部、231…位置検出部、232…被写体検出部、233…属性情報記述部、300…画像形成装置、400…静止画像、501…マウスポインタ、510、520、552、553、580…ポップアップ画面、530…枠線、540…静止画像、550…電子文書、551…実行言語による記述が埋め込まれた領域、600…アプリケーション、601…マクロ DESCRIPTION OF SYMBOLS 10 ... JPEG file, 13 ... Type 11 application segment, 13A, 13B ... Information defining workflow processing, 100 ... Image processing system, 200 ... Computer, 221 ... Instruction recognition unit, 222 ... Execution control unit, 231 ... Position detection 232 ... Subject detection unit 233 ... Attribute information description unit 300 ... Image forming device 400 ... Still image 501 ... Mouse pointer 510, 520, 552, 553, 580 ... Pop-up screen 530 ... Frame line 540 ... still image, 550 ... electronic document, 551 ... area in which description in execution language is embedded, 600 ... application, 601 ... macro

Claims (16)

属性情報が付属した各被写体を含む画像に対するユーザの指定を認識する認識部と、
前記画像上でユーザが指定した被写体に付属する前記属性情報を、当該画像のデータファイルに付属する属性情報の中から読み出した後、読み出された当該属性情報が規定するワークフロー処理の実行を通じてユーザが指定した当該被写体に関連する情報の通知を要求する制御部と、
を有する情報処理装置。
A recognition unit for recognizing a user's designation for an image including each subject with attribute information;
After the attribute information attached to the subject designated by the user on the image is read out from the attribute information attached to the data file of the image, the user is made through the execution of the workflow process specified by the read attribute information. A control unit that requests notification of information related to the subject specified by;
An information processing apparatus.
前記画像のデータファイルは、JPEGフォーマットに準拠し、前記属性情報は、JSONで記述されていること
を特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the image data file conforms to a JPEG format, and the attribute information is described in JSON.
前記制御部は、前記ワークフロー処理の実行を通じて、前記被写体としての機器を操作するための操作画面を表示すること
を特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the control unit displays an operation screen for operating a device as the subject through execution of the workflow process.
前記制御部は、前記操作画面を通じて受け付けた操作に関するコマンドを前記被写体としての機器に対して送信する又は送信させること
を特徴とする請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the control unit transmits or transmits a command related to an operation received through the operation screen to the device as the subject.
前記制御部は、前記操作によって実現された状態が反映されるように、前記画像内における前記被写体の表示に変化を与えること
を特徴とする請求項4に記載の情報処理装置。
The information processing apparatus according to claim 4, wherein the control unit changes the display of the subject in the image so that the state realized by the operation is reflected.
前記制御部は、前記被写体としての機器に応じて用意されている複数の前記操作画面の何れか1つ以上を表示すること
を特徴とする請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the control unit displays one or more of the plurality of operation screens prepared according to a device as the subject.
前記制御部は、前記被写体に対応する実在する機器の状態を反映するように、当該被写体の表示を変更すること
を特徴とする請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the control unit changes a display of the subject so as to reflect a state of an actual device corresponding to the subject.
前記制御部は、前記ワークフロー処理の実行を通じて、前記被写体に関連付けられている音声ファイルを再生すること
を特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the control unit reproduces an audio file associated with the subject through execution of the workflow process.
前記ワークフロー処理は、前記被写体がユーザに操作可能な機器の画像である場合、当該機器を操作する操作画面を表示し、当該被写体がユーザに操作不可能な画像である場合、当該被写体に関する情報を通知するように処理の内容を切り替えること、
を特徴とする請求項1に記載の情報処理装置。
The workflow process displays an operation screen for operating the device when the subject is an image of a device operable by the user, and displays information about the subject when the subject is an image that cannot be operated by the user. Switch the content of the process to notify,
The information processing apparatus according to claim 1.
前記制御部は、前記画像のデータファイルに付属する前記属性情報に記述されている前記情報の内容と、当該画像が貼り付けられる文書ファイルの文書内に記述されている内容とを組み合わせて1つの機能を実行すること
を特徴とする請求項1に記載の情報処理装置。
The control unit combines the content of the information described in the attribute information attached to the data file of the image with the content described in the document of the document file to which the image is pasted. The information processing apparatus according to claim 1, wherein a function is executed.
前記制御部は、前記画像のデータファイルに含まれる前記属性情報に記述された前記情報の内容と、当該画像が貼り付けられる文書ファイルを開くアプリケーションに登録されている内容とを組み合わせて1つの機能を実行すること
を特徴とする請求項1に記載の情報処理装置。
The control unit combines a content of the information described in the attribute information included in the data file of the image with a content registered in an application that opens a document file to which the image is pasted. The information processing apparatus according to claim 1, wherein:
前記制御部は、前記情報の復号結果を外部装置から取得して前記ワークフロー処理を実行すること
を特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the control unit acquires a decoding result of the information from an external apparatus and executes the workflow process.
属性情報が付属した各被写体を含む画像上でユーザが指定した被写体に対応する領域部分を検出する又は予め定めた被写体が存在する当該画像上における領域部分を検出する検出部と、
検出された前記領域部分の前記被写体に関連する情報の通知をワークフロー処理の実行を通じて要求するための情報を、前記画像のデータファイルに付属する前記属性情報の一部分に記述する制御部と、
を有する情報処理装置。
Detecting a region portion corresponding to the subject designated by the user on an image including each subject to which attribute information is attached, or detecting a region portion on the image where a predetermined subject exists;
A control unit that describes, in a part of the attribute information attached to the data file of the image, information for requesting notification of information related to the subject of the detected region portion through execution of a workflow process;
An information processing apparatus.
情報処理装置で処理される画像ファイルのデータ構造において、
画像の本体を格納する第1のデータ領域と、
前記画像の本体の属性情報を格納する第2のデータ領域であり、当該本体の属性情報の一部として、当該画像に含まれる各被写体に付属する属性情報を含む当該第2のデータ領域と
を備え、
前記画像上で前記被写体がユーザにより指定された場合、当該被写体に付属する前記属性情報が規定するワークフロー処理の実行を通じて、ユーザが指定した被写体に関連する情報の通知を前記情報処理装置に要求する
画像ファイルのデータ構造。
In the data structure of the image file processed by the information processing device,
A first data area for storing the body of the image;
A second data area storing attribute information of the main body of the image, and the second data area including attribute information attached to each subject included in the image as a part of the attribute information of the main body. Prepared,
When the subject is designated by the user on the image, the information processing apparatus is requested to notify the information related to the subject designated by the user through execution of a workflow process defined by the attribute information attached to the subject. The data structure of the image file.
コンピュータを、
属性情報が付属した各被写体を含む画像に対するユーザの指定を認識する認識部と、
前記画像上でユーザが指定した被写体に付属する前記属性情報を、当該画像のデータファイルに付属する前記属性情報の中から読み出した後、読み出された当該属性情報が規定するワークフロー処理の実行を通じてユーザが指定した前記被写体に関連する情報の通知を要求する制御部と、
として機能させるためのプログラム。
Computer
A recognition unit for recognizing a user's designation for an image including each subject with attribute information;
The attribute information attached to the subject designated by the user on the image is read out from the attribute information attached to the data file of the image, and then the workflow process specified by the read attribute information is executed. A control unit that requests notification of information related to the subject specified by the user;
Program to function as.
コンピュータを、
属性情報が付属した各被写体を含む画像上でユーザが指示した被写体に対応する領域部分を検出する又は予め定めた前記被写体が存在する当該画像上における領域部分を検出する検出部と、
検出された前記領域部分の前記被写体に関連する情報の通知をワークフロー処理の実行を通じて要求するための情報を、前記画像のデータファイルに付属する前記属性情報の一部分に記述する制御部と、
として機能させるためのプログラム。
Computer
A detection unit that detects a region portion corresponding to a subject instructed by a user on an image including each subject to which attribute information is attached, or detects a region portion on the image in which the predetermined subject exists;
A control unit that describes, in a part of the attribute information attached to the data file of the image, information for requesting notification of information related to the subject of the detected region portion through execution of a workflow process;
Program to function as.
JP2017139934A 2017-07-19 2017-07-19 Information processing apparatus, data structure of image file and program Active JP6418290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017139934A JP6418290B2 (en) 2017-07-19 2017-07-19 Information processing apparatus, data structure of image file and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017139934A JP6418290B2 (en) 2017-07-19 2017-07-19 Information processing apparatus, data structure of image file and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016207903A Division JP6187667B1 (en) 2016-10-24 2016-10-24 Information processing apparatus, data structure of image file and program

Publications (2)

Publication Number Publication Date
JP2018073386A JP2018073386A (en) 2018-05-10
JP6418290B2 true JP6418290B2 (en) 2018-11-07

Family

ID=62115496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017139934A Active JP6418290B2 (en) 2017-07-19 2017-07-19 Information processing apparatus, data structure of image file and program

Country Status (1)

Country Link
JP (1) JP6418290B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773978A (en) * 1993-08-31 1995-03-17 Toshiba Lighting & Technol Corp Lighting presentation device
JP4088025B2 (en) * 2000-07-06 2008-05-21 株式会社東芝 Internet product ordering equipment
JP2004030281A (en) * 2002-06-26 2004-01-29 Fuji Photo Film Co Ltd Method and device for transferring data, and digital camera
JP4799285B2 (en) * 2006-06-12 2011-10-26 キヤノン株式会社 Image output system, image output apparatus, information processing method, storage medium, and program
US8997219B2 (en) * 2008-11-03 2015-03-31 Fireeye, Inc. Systems and methods for detecting malicious PDF network content
US8850571B2 (en) * 2008-11-03 2014-09-30 Fireeye, Inc. Systems and methods for detecting malicious network content
JP2016525732A (en) * 2013-05-13 2016-08-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Device with graphic user interface for controlling lighting characteristics
JP2015076001A (en) * 2013-10-10 2015-04-20 沖プリンテッドサーキット株式会社 History management method of image data, and history management system of image data

Also Published As

Publication number Publication date
JP2018073386A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6460228B2 (en) Information processing apparatus, information processing method, and information processing program
JP3746378B2 (en) Electronic memo processing device, electronic memo processing method, and computer-readable recording medium recording electronic memo processing program
JP2010146086A (en) Data delivery system, data delivery device, data delivery method, and data delivery program
JP2008003991A (en) Image processor and processing method, and program
US20160241743A1 (en) Image processing system, image processing apparatus, and image forming apparatus
JP6179653B1 (en) Information processing apparatus and program
JP2010244223A (en) Information input device and information input method
KR101219410B1 (en) Image reading apparatus, method for controlling image reading apparatus, image reading system, and method of controlling image reading system
JP6187667B1 (en) Information processing apparatus, data structure of image file and program
JP2019049902A (en) Information processor and program
JP2019050520A (en) Information processing apparatus and program
JP2010261989A (en) Image processing device, display history confirmation support method, and computer program
US10805243B2 (en) Artificial intelligence conversation interface for receiving and interpreting user input
JP4533315B2 (en) Information processing apparatus, information display method, and program for setting background image
KR20110005549A (en) Method for generating additional information added document and image forming apparatus for performing thereof
JP6418290B2 (en) Information processing apparatus, data structure of image file and program
JP2008289130A (en) Copier device capable of electronically storing and recalling copied document
JP2019036127A (en) Information processing device and program
JP2019053424A (en) Information processing device, data structure of image file, and program
JP2007049368A (en) Image processing apparatus, method for retrieving operation guide history, and program to be executed
JP6455551B2 (en) Information processing apparatus and program
JP4995701B2 (en) Image forming apparatus and image forming system
JP2009081884A (en) Image processing apparatus, control method of image processing apparatus and program
US9692938B2 (en) Image forming apparatus
JPH10312456A (en) Digital composite machine and image managing system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R150 Certificate of patent or registration of utility model

Ref document number: 6418290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350