JP2010250506A - Image processing apparatus and method for controlling the same - Google Patents

Image processing apparatus and method for controlling the same Download PDF

Info

Publication number
JP2010250506A
JP2010250506A JP2009098394A JP2009098394A JP2010250506A JP 2010250506 A JP2010250506 A JP 2010250506A JP 2009098394 A JP2009098394 A JP 2009098394A JP 2009098394 A JP2009098394 A JP 2009098394A JP 2010250506 A JP2010250506 A JP 2010250506A
Authority
JP
Japan
Prior art keywords
image
unit
display
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009098394A
Other languages
Japanese (ja)
Inventor
Midori Matsuda
美登里 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009098394A priority Critical patent/JP2010250506A/en
Publication of JP2010250506A publication Critical patent/JP2010250506A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily display information corresponding to an object by use of the object placed on a planar member. <P>SOLUTION: A data display/sensor device 100 includes: a sensor built-in liquid crystal panel 301 displaying an image, and detecting an image of the neighborhood object; a characteristic amount extraction part 802 extracting a characteristic amount of the image detected by the sensor built-in liquid crystal panel 301; an attribute information specification part 804 specifying attribute information of the object based on the characteristic amount of the image extracted by the characteristic amount extraction part 802; and an image control part 806 making correspondence information corresponding to the attribute information specified by the attribute information specification part 804 be displayed with the object placed on the sensor built-in liquid crystal panel 301. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、面状部材に載置された対象物を用いて、当該対象物に応じた情報を容易に表示させることが可能な画像処理装置および画像処理装置の制御方法に関するものである。   The present invention relates to an image processing apparatus capable of easily displaying information corresponding to an object using the object placed on a planar member, and a method for controlling the image processing apparatus.

近年、様々な医薬品が開発されているため、患者の症状、体質、年齢等にあわせて処方することが可能となっており、その処方は多岐にわたっている。また、サプリメントも複数開発されており、患者に限らず、例えば健康を維持するために、複数のサプリメントを服用する人も多い。   In recent years, since various pharmaceuticals have been developed, it is possible to prescribe according to the patient's symptoms, constitution, age, etc., and the prescription is diverse. In addition, a plurality of supplements have been developed, and not only patients but many people take a plurality of supplements to maintain their health, for example.

一般的に、患者には、処方される医薬品の効能、飲み合わせ等の説明を示した書面が、医薬品と共に提供される。また、市販の医薬品およびサプリメントにも、その効能、飲み合わせ等の情報を示した書面が付されている。   Generally, the patient is provided with a written document that explains the efficacy of the prescribed medicine, description of drinking, etc. In addition, commercially available medicines and supplements are also accompanied by a document showing information on their efficacy and drinking.

しかし、服用する医薬品またはサプリメントが複数になればなるほど、その書面も増えるため、これらを服用する人にとって、どの医薬品またはサプリメントにどのような効能があるのかを把握したり、適切な飲み合わせ、服用する時間帯、賞味期限等を判断することが困難になる。また、これらの書面のうち1つでも紛失してしまった場合には、各医薬品またはサプリメントの効能、適切な飲み合わせ、服用する時間帯、賞味期限等の情報を得ることができなくなってしまう。   However, the more medicines or supplements you take, the more documentation you have, so you can figure out what drugs or supplements are effective for those who take them, and take appropriate drinks and doses. It becomes difficult to judge the time zone to be used, the expiration date, etc. Further, if any one of these documents is lost, it becomes impossible to obtain information such as the efficacy of each medicine or supplement, proper drinking, taking time zone, and expiration date.

そこで、医薬品またはサプリメントを複数服用する人は、上記のような情報を容易に得るために、これらに添付された書面を利用せずに、インターネット等の通信ネットワークを利用して、これらの品名、品番等からの情報検索を行っている。近年、ノート型PC(Personal Computer)、PDA(Personal Digital Assistant)、電子辞書、携帯電話機など、ユーザが持ち運び可能な携帯型端末の普及により、ユーザは、どこにいても手軽に、上記のような情報検索を行うことができる。   Therefore, people who take multiple medicines or supplements can easily obtain such information by using a communication network such as the Internet without using the document attached to them. Search information from product number. In recent years, with the widespread use of portable terminals such as notebook PCs (Personal Computers), PDAs (Personal Digital Assistants), electronic dictionaries, mobile phones, etc., users can easily access information such as the above Search can be performed.

このように、通信ネットワークを用いて、複数の有効成分を有する医薬品およびサプリメントの飲み合わせについて適切な情報を得ることが可能な技術は、例えば特許文献1が挙げられる。   As described above, for example, Patent Document 1 can be cited as a technique capable of obtaining appropriate information about a combination of a medicine having a plurality of active ingredients and a supplement using a communication network.

特許文献1は、医薬品名およびサプリメントの商品名をそれぞれ入力可能な入力部と、入力されたサプリメントまたは医薬品の情報を検索するための検索ボタンとが設けられた検索画面を端末に表示させる検索システムが開示されている。   Patent Document 1 discloses a search system that displays on a terminal a search screen provided with an input unit that can input a drug name and a product name of a supplement, and a search button for searching for information on the input supplement or drug. Is disclosed.

特開2005−222158号公報(2005年8月18日公開)Japanese Patent Laying-Open No. 2005-222158 (published on August 18, 2005)

しかしながら、特許文献1の技術では、これらを服用する人(検索システムを利用するユーザ)は、服用する医薬品またはサプリメントを入力する必要がある。このため、特許文献1の技術では、服用する医薬品またはサプリメントの品名または品番などを正確に入力しなければ、服用する医薬品またはサプリメントに対応する情報(効能、適切な飲み合わせ、服用する時間帯、賞味期限)を得ることができないという問題がある。また、医薬品またはサプリメントの品名があまり知られていなかったり、品名および品番が長い場合には誤入力する可能性が高くなる。   However, in the technique of Patent Document 1, a person taking these (user using a search system) needs to input a medicine or supplement to be taken. For this reason, in the technology of Patent Document 1, if the product name or product number of the medicine or supplement to be taken is not accurately input, information corresponding to the medicine or supplement to be taken (efficacy, proper drinking, time zone to take, There is a problem that the expiration date cannot be obtained. In addition, if the product name of the medicine or supplement is not well known or if the product name and product number are long, there is a high possibility of erroneous input.

また、特許文献1の技術では、入力部に対する入力操作(対象物の名称を入力する操作)なしで服用する医薬品またはサプリメントに応じた情報を表示させるような機能は有していない。   Moreover, in the technique of patent document 1, it does not have a function which displays the information according to the pharmaceutical or supplement to take without input operation (operation which inputs the name of a target object) with respect to an input part.

従って、特許文献1の検索システムは、ユーザに、品名または品番を誤入力しないように細心の注意をもって入力させる必要があり、ユーザの感覚的な操作によって、服用する医薬品またはサプリメントに応じた情報を容易に表示させることが困難であった。   Therefore, it is necessary for the search system of Patent Document 1 to allow a user to input a product name or product number with care so as not to erroneously input a product name or product number. It was difficult to display easily.

なお、特許文献1の技術では、ユーザは、服用する医薬品またはサプリメントが複数になれば、その分だけ医薬品名またはサプリメントの商品名を入力する必要がある。このため、服用する医薬品またはサプリメントが増えるほど、ユーザの手間が増えてしまうことになる。   In the technique of Patent Document 1, when there are a plurality of medicines or supplements to be taken, the user needs to input the medicine name or the product name of the supplement accordingly. For this reason, a user's effort will increase, so that the pharmaceutical or supplement to take increases.

この場合も、特許文献1の検索システムは、ユーザの感覚的な操作によって、複数の医薬品およびサプリメントに応じた情報(例えば飲み合わせの情報)を容易に表示させることが困難であった。   Also in this case, it is difficult for the search system of Patent Document 1 to easily display information (for example, information on drinking) according to a plurality of medicines and supplements by a user's sensory operation.

また、特許文献1の技術では、例えば医薬品またはサプリメントではなく、その他の対象物に応じた情報を表示させる場合であっても、入力部に対する入力操作なしで(すなわちユーザの感覚的な操作で)当該情報を容易に表示させることは困難であった。   Further, in the technique of Patent Document 1, for example, even when displaying information according to other objects, not medicines or supplements, without an input operation on the input unit (that is, by a user's sensuous operation). It was difficult to display the information easily.

本発明は、上記の課題に鑑みてなされたものであり、その目的は、面状部材に載置された対象物を用いて、当該対象物に応じた情報を容易に表示させることが可能な画像処理装置および画像処理装置の制御方法を提供することにある。   This invention is made | formed in view of said subject, The objective can be made to display easily the information according to the said target object using the target object mounted in the planar member. An object of the present invention is to provide an image processing apparatus and a method for controlling the image processing apparatus.

本発明に係る画像処理装置は、上記の問題点を解決するために、画像を表示するとともに、近傍の対象物の像を検知する面状部材と、上記面状部材が検知した像の特徴量を抽出する抽出手段と、上記抽出手段が抽出した像の特徴量に基づいて、上記対象物の属性情報を特定する特定手段と、上記特定手段が特定した属性情報に対応する対応情報を、上記面状部材に対象物が載置された状態で表示させる画像制御手段と、を備えることを特徴としている。   In order to solve the above problems, the image processing apparatus according to the present invention displays an image and detects a nearby object image, and a feature amount of the image detected by the planar member. Extraction means for extracting, identification means for specifying the attribute information of the object based on the feature amount of the image extracted by the extraction means, and correspondence information corresponding to the attribute information specified by the specification means, And image control means for displaying the object in a state where the object is placed on the planar member.

また、本発明に係る画像処理装置の制御方法は、上記の問題点を解決するために、画像を表示するとともに、近傍の対象物の像を検知する面状部材とを備える画像処理装置の制御方法であって、上記面状部材が検知した像の特徴量を抽出する抽出ステップと、上記抽出ステップにて抽出された像の特徴量に基づいて、上記対象物の属性情報を特定する特定ステップと、上記特定ステップにて特定された属性情報に対応する対応情報を、上記面状部材に対象物が載置された状態で表示させる画像制御ステップと、を含むことを特徴としている。   In addition, in order to solve the above-described problems, the image processing apparatus control method according to the present invention displays an image and controls an image processing apparatus including a planar member that detects an image of a nearby object. An extraction step for extracting a feature amount of an image detected by the planar member, and a specifying step for specifying attribute information of the object based on the feature amount of the image extracted in the extraction step And an image control step of displaying correspondence information corresponding to the attribute information specified in the specifying step in a state where the object is placed on the planar member.

上記構成によれば、特定手段(特定ステップ)は、抽出手段(抽出ステップ)によって抽出された像の特徴量に基づいて対象物の属性情報を特定する。そして、画像制御手段(画像制御ステップ)は、この特定した属性情報に対応する対応情報を、面状部材に対象物が載置された状態で表示させる。   According to the above configuration, the specifying unit (specifying step) specifies the attribute information of the object based on the feature amount of the image extracted by the extracting unit (extracting step). Then, the image control means (image control step) displays correspondence information corresponding to the specified attribute information in a state where the object is placed on the planar member.

これにより、画像処理装置およびその制御方法では、面状部材に対象物を載置したままで、当該対象物の属性情報に対応する対応情報を表示することができるので、面状部材に表示させる画像の一部として用いることができる。   Accordingly, in the image processing apparatus and the control method thereof, the correspondence information corresponding to the attribute information of the target object can be displayed while the target object is placed on the planar member. It can be used as part of an image.

このため、ユーザは、ユーザ操作を取得可能な操作入力画像に対して、対象物の名称などを入力するというような入力操作を行うことなく、面状部材に対象物を載置するだけで、当該対象物の属性情報に対応する対応情報(すなわち対象物に関係する情報)を確認することができる。   For this reason, the user simply places the object on the planar member without performing an input operation such as inputting the name of the object on the operation input image from which the user operation can be acquired. Correspondence information corresponding to the attribute information of the object (that is, information related to the object) can be confirmed.

従って、画像処理装置およびその制御方法は、ユーザに入力操作を行わせずに(すなわち、ユーザの感覚的な操作によって)、面状部材に載置された対象物を用いて、当該対象物に応じた情報を容易に表示させることができる。そして、ユーザは、面状部材に情報を得たい対象物を載置するだけで、当該対象物に応じた情報を容易に確認することができる。   Therefore, the image processing apparatus and the control method thereof do not perform an input operation on the user (that is, by a user's sensual operation) and use the object placed on the planar member to The corresponding information can be easily displayed. And the user can confirm easily the information according to the said target object only by mounting the target object which wants to obtain information on a planar member.

ここで、属性情報とは、対象物に関するあらゆる情報を指し、例えば対象物が医薬品の場合、品名、品番、効能、飲み合わせ不可能な医薬品の名称、服用日を決定するための情報、賞味期限などが挙げられる。   Here, the attribute information refers to all information related to the target object. For example, when the target object is a drug, the product name, product number, efficacy, name of drug that cannot be swallowed, information for determining the date of taking, expiration date Etc.

また、属性情報に対応する対応情報とは、各属性情報に対応した処理の結果を示す情報であり、例えば対象物が医薬品である場合、当該医薬品の賞味期限が切れているかどうかを示す情報などを指す。   The correspondence information corresponding to the attribute information is information indicating the result of the processing corresponding to each attribute information. For example, when the target is a medicine, information indicating whether the expiration date of the medicine has expired or the like Point to.

さらに、本発明に係る画像処理装置は、上記面状部材は、複数の対象物の像を検知するものであり、上記画像制御手段は、上記複数の対象物それぞれの属性情報に基づいて、当該対象物どうしの関連を示す関連情報を上記対応情報として表示させることが好ましい。   Further, in the image processing apparatus according to the present invention, the planar member detects images of a plurality of objects, and the image control unit is configured to perform the processing based on attribute information of each of the plurality of objects. It is preferable to display related information indicating the relationship between objects as the correspondence information.

上記構成によれば、画像制御手段は、面状部材に載置された複数の対象物それぞれの属性情報に基づいて、対象物どうしの関連を示す関連情報を対応情報として表示させる。このため、画像処理装置は、面状部材に載置された対象物それぞれの対応情報を表示することができるだけでなく、対象物どうしの関連を示す関連情報を表示することができる。   According to the said structure, an image control means displays the relevant information which shows the relationship between target objects as corresponding information based on the attribute information of each of the several target object mounted in the planar member. For this reason, the image processing apparatus can display not only the correspondence information of each target object placed on the planar member but also the related information indicating the relationship between the target objects.

これにより、ユーザは、面状部材に複数の対象物を載置するだけで、当該対象物どうしの関連を示す関連情報を容易に確認することができる。   Thereby, the user can confirm easily the related information which shows the relationship between the said objects only by mounting a several target object in a planar member.

ここで、対象物どうしの関連を示す関連情報とは、複数の対象物が検知されたときの各対象物の属性情報に対応する対応情報を示すものである。例えば対象物が医薬品の場合、属性情報としての飲み合わせ不可能な医薬品の名称から求められる、飲み合わせ可能か不可能かを示す飲み合わせ情報、属性情報としての服用日を決定するための情報から求められる服用日と、当該服用日ごとに対象物を分類したときのグループとを対応付けたグループ情報などを指す。   Here, the related information indicating the relationship between objects indicates correspondence information corresponding to the attribute information of each object when a plurality of objects are detected. For example, if the target is a medicine, it is obtained from the name of the medicine that cannot be swallowed as attribute information, from swallowing information indicating whether swallowing is possible or not, and information for determining the date of taking as attribute information This refers to group information in which a required dosing date is associated with a group when an object is classified for each taking date.

さらに、本発明に係る画像処理装置は、上記画像制御手段は、上記面状部材が像を検知したときの画像における当該像を含む領域に、上記対応情報を表示させることが好ましい。   Furthermore, in the image processing apparatus according to the present invention, it is preferable that the image control means displays the correspondence information in a region including the image in the image when the planar member detects the image.

上記構成によれば、画像処理装置は、面状部材が像を検知したときの画像における当該像を含む領域に対応情報を表示させるので、面状部材に載置された対象物と重なる領域に、当該対象物に関する対応情報を表示することができる。すなわち、画像処理装置は、載置された対象物に応じた情報をユーザが容易に把握できるような画像を表示することができるので、ユーザの利便性を向上させることができる。   According to the above configuration, the image processing apparatus displays the correspondence information in the area including the image in the image when the planar member detects the image, so that the area is overlapped with the object placed on the planar member. Correspondence information about the object can be displayed. In other words, the image processing apparatus can display an image that allows the user to easily grasp information according to the placed object, thereby improving user convenience.

さらに、本発明に係る画像処理装置は、上記画像制御手段は、上記面状部材が像を検知したときの画像における当該像とは異なる領域に、上記対応情報を表示させることが好ましい。   Furthermore, in the image processing apparatus according to the present invention, it is preferable that the image control means displays the correspondence information in a region different from the image in the image when the planar member detects the image.

例えば、対応情報が文字、数値、記号を含む場合、当該対応情報を対象物と重なる領域に表示すると、文字、数値、記号の少なくとも一部が対象物に隠れてしまうため、ユーザがこれらの情報を確認することができなくなる可能性がある。   For example, when the correspondence information includes characters, numerical values, and symbols, if the correspondence information is displayed in an area that overlaps the target object, at least a part of the characters, numerical values, and symbols are hidden by the target object. May not be able to be confirmed.

上記構成によれば、画像処理装置は、面状部材が像を検知したときの画像における当該像とは異なる領域に対応情報を表示させるので、面状部材に載置された対象物に重ならない領域に、当該対象物に関する対応情報を表示することができる。従って、対応情報が文字、数値、記号を含む場合であっても、画像処理装置は、載置された対象物に応じた情報をユーザが容易に把握できるような画像を表示することができるので、ユーザの利便性を向上させることができる。   According to the above configuration, the image processing apparatus displays the correspondence information in a region different from the image in the image when the planar member detects the image, and thus does not overlap the object placed on the planar member. Correspondence information related to the object can be displayed in the area. Therefore, even if the correspondence information includes characters, numerical values, and symbols, the image processing apparatus can display an image that allows the user to easily grasp information according to the placed object. , User convenience can be improved.

さらに、本発明に係る画像処理装置は、上記対象物は、医薬品またはサプリメントであることが好ましい。   Furthermore, in the image processing apparatus according to the present invention, it is preferable that the object is a medicine or a supplement.

上記構成によれば、画像処理装置は、医薬品またはサプリメントに応じた情報を表示することができる。このため、ユーザは、面状部材に載置した医薬品またはサプリメントが服用可能かどうか(服用すべきかどうか)を容易に確認することができると共に、服用可能(服用すべき)であると判断した医薬品またはサプリメントを面状部材から取り上げて、そのまま服用することができる。   According to the above configuration, the image processing apparatus can display information according to the medicine or supplement. For this reason, the user can easily check whether or not the medicine or supplement placed on the planar member can be taken (whether it should be taken) and can be taken (should be taken). Alternatively, the supplement can be taken from the planar member and taken as it is.

従って、画像処理装置は、ユーザに、医薬品またはサプリメントが服用可能(服用すべき)かどうかを適切に知らせることができるだけでなく、ユーザが、服用する医薬品またはサプリメントを取り違えて服用することを未然に防止することができる。   Therefore, the image processing apparatus can not only properly notify the user whether or not the medicine or supplement can be taken (should be taken) but also prevent the user from taking the medicine or supplement to be taken in advance. Can be prevented.

本発明に係る画像処理装置は、画像を表示するとともに、近傍の対象物の像を検知する面状部材と、上記面状部材が検知した像の特徴量を抽出する抽出手段と、上記抽出手段が抽出した像の特徴量に基づいて、上記対象物の属性情報を特定する特定手段と、上記特定手段が特定した属性情報に対応する対応情報を、上記面状部材に対象物が載置された状態で表示させる画像制御手段と、を備える構成である。   An image processing apparatus according to the present invention includes a planar member that displays an image and detects an image of a nearby object, an extraction unit that extracts a feature amount of the image detected by the planar member, and the extraction unit The object is placed on the planar member, with the specifying means for specifying the attribute information of the object based on the feature amount of the image extracted by the image, and the correspondence information corresponding to the attribute information specified by the specifying means. And image control means for displaying in a state of being displayed.

本発明に係る画像処理装置の制御方法は、上記面状部材が検知した像の特徴量を抽出する抽出ステップと、上記抽出ステップにて抽出された像の特徴量に基づいて、上記対象物の属性情報を特定する特定ステップと、上記特定ステップにて特定された属性情報に対応する対応情報を、上記面状部材に対象物が載置された状態で表示させる画像制御ステップと、を含む方法である。   An image processing apparatus control method according to the present invention includes: an extraction step for extracting an image feature amount detected by the planar member; and an image feature amount extracted in the extraction step based on the feature amount of the object. A method comprising: a specifying step for specifying attribute information; and an image control step for displaying correspondence information corresponding to the attribute information specified in the specifying step in a state where an object is placed on the planar member. It is.

それゆえ、画像処理装置およびその制御方法は、ユーザに入力操作を行わせずに(すなわち、ユーザの感覚的な操作によって)、面状部材に載置された対象物を用いて、当該対象物に応じた情報を容易に表示させることができる。   Therefore, the image processing apparatus and the control method thereof use the object placed on the planar member without performing an input operation on the user (that is, by a user's sensory operation). It is possible to easily display information corresponding to

本発明の一実施形態に係るデータ表示/センサ装置のより詳細な構成を示すブロック図である。It is a block diagram which shows the more detailed structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルの断面を模式的に示す図である。It is a figure which shows typically the cross section of the liquid crystal panel with a built-in sensor with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided. 図3(a)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)は、本発明の一実施形態に係るデータ表示/センサ装置が備えるセンサ内蔵液晶パネルにて影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。FIG. 3A is a schematic diagram showing a state in which a position touched by a user is detected by detecting a reflected image on a sensor built-in liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. is there. FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image on the sensor built-in liquid crystal panel included in the data display / sensor device according to the embodiment of the present invention. . 本発明の一実施形態に係るデータ表示/センサ装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置で用いられるコマンドのフレーム構造の一例を模式的に示す図である。It is a figure which shows typically an example of the frame structure of the command used with the data display / sensor apparatus which concerns on one Embodiment of this invention. 図5に示したコマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。It is a figure explaining an example of the value which can be specified to each field contained in the command shown in FIG. 5, and its outline. 図7(a)は、本発明の一実施形態に係るデータ表示/センサ装置にて、対象物がセンサ内蔵液晶パネル上に置かれていないときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。図7(b)は、本発明の一実施形態に係るデータ表示/センサ装置にて、ユーザが指でセンサ内蔵液晶パネルをタッチしているときに、センサ内蔵液晶パネル全体をスキャンした結果として得られる画像データである。FIG. 7A is a result of scanning the entire sensor-equipped liquid crystal panel when the object is not placed on the sensor-equipped liquid crystal panel in the data display / sensor device according to the embodiment of the present invention. Image data. FIG. 7B is obtained as a result of scanning the entire sensor-equipped liquid crystal panel when the user is touching the sensor-equipped liquid crystal panel with a finger in the data display / sensor device according to the embodiment of the present invention. Image data. 本発明の一実施形態に係るデータ表示/センサ装置が備える表示/光センサ部の要部、特に、センサ内蔵液晶パネルの構成および周辺回路の構成を示すブロック図である。It is a block diagram which shows the principal part of the display / light sensor part with which the data display / sensor apparatus which concerns on one Embodiment of this invention is provided, especially the structure of the liquid crystal panel with a built-in sensor, and the structure of a peripheral circuit. 本発明の一実施形態に係るデータ表示/センサ装置において、センサ内蔵液晶パネルに対象物が載置された際の処理の流れを示すフローチャートである。5 is a flowchart showing a flow of processing when an object is placed on a liquid crystal panel with a built-in sensor in the data display / sensor device according to the embodiment of the present invention. 本発明の一実施形態に係るデータ表示/センサ装置の主制御部において参照される、記憶部に格納された属性情報テーブルを示す図である。It is a figure which shows the attribute information table stored in the memory | storage part referred in the main control part of the data display / sensor apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るデータ表示/センサ装置の画像制御部における、飲み合わせの相互関係を示すときの表示処理としての画像データ作成処理を示すフローチャートである。It is a flowchart which shows the image data creation process as a display process in the image control part of the data display / sensor apparatus which concerns on one Embodiment of this invention as a display process when showing the correlation of drinking. 図12(a)は、図11に示す画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図12(b)は、図11に示す画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネルに表示されたときの表示例を示す図である。12A is a diagram showing an example of the arrangement of virtual areas specified when the image data creation process shown in FIG. 11 is executed, and FIG. 12B is a diagram showing the image data creation process shown in FIG. It is a figure which shows the example of a display when the image as a result of having performed is displayed on the sensor built-in liquid crystal panel. 本発明の一実施形態に係るデータ表示/センサ装置の画像制御部における、服用時間の順番を示すときの表示処理としての画像データ作成処理を示すフローチャートである。It is a flowchart which shows the image data creation process as a display process in the image control part of the data display / sensor apparatus which concerns on one Embodiment of this invention as showing the order of taking time. 図14(a)は、図13に示す画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図14(b)は、図13に示す画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネルに表示されたときの表示例を示す図である。FIG. 14A is a diagram showing an example of the arrangement of virtual areas specified when the image data creation process shown in FIG. 13 is executed, and FIG. 14B is the image data creation process shown in FIG. It is a figure which shows the example of a display when the image as a result of having performed is displayed on the sensor built-in liquid crystal panel. 本発明の一実施形態に係るデータ表示/センサ装置の画像制御部における、服用日のグルーピングを示すときの表示処理としての画像データ作成処理を示すフローチャートである。It is a flowchart which shows the image data creation process as a display process in the image control part of the data display / sensor apparatus which concerns on one Embodiment of this invention as a display process when showing grouping of a taking day. 図16(a)は、図15に示す画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図16(b)は、図15に示す画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネルに表示されたときの表示例を示す図である。FIG. 16A is a diagram showing an arrangement example of virtual areas specified when the image data creation process shown in FIG. 15 is executed, and FIG. 16B is a diagram showing the image data creation process shown in FIG. It is a figure which shows the example of a display when the image as a result of having performed is displayed on the sensor built-in liquid crystal panel. 本発明の一実施形態に係るデータ表示/センサ装置の画像制御部における、総摂取量を示すときの表示処理としての画像データ作成処理を示すフローチャートである。It is a flowchart which shows the image data creation process as a display process in the image control part of the data display / sensor apparatus which concerns on one Embodiment of this invention as a total intake. 図18(a)は、図17に示す画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図18(b)は、図17に示す画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネル301に表示されたときの表示例を示す図である。18A is a diagram showing an example of the arrangement of virtual areas specified when the image data creation process shown in FIG. 17 is executed, and FIG. 18B is a diagram showing the image data creation process shown in FIG. It is a figure which shows the example of a display when the image as a result of having performed is displayed on the liquid crystal panel 301 with a built-in sensor. 本発明の一実施形態に係るデータ表示/センサ装置の画像制御部における、賞味期限の判断を示すときの表示処理としての画像データ作成処理を示すフローチャートである。It is a flowchart which shows the image data creation process as a display process in the image control part of the data display / sensor apparatus which concerns on one Embodiment of this invention as a determination of the expiration date. 図20(a)は、図19に示す画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図20(b)は、図19に示す画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネル301に表示されたときの表示例を示す図である。20A is a diagram showing an example of the arrangement of virtual areas specified when the image data creation process shown in FIG. 19 is executed. FIG. 20B is a diagram showing the image data creation process shown in FIG. It is a figure which shows the example of a display when the image as a result of having performed is displayed on the liquid crystal panel 301 with a built-in sensor.

本発明の一実施形態について、図1から図20に基づいて説明すると以下の通りである。   An embodiment of the present invention will be described below with reference to FIGS.

本実施形態に係るデータ表示/センサ装置100(画像処理装置(その制御方法))は、画像を表示するとともに、近傍の対象物の像を検知するセンサ内蔵液晶パネル301(面状部材)と、センサ内蔵液晶パネル301が検知した像の特徴量を抽出する特徴量抽出部802(抽出手段、抽出ステップ)と、特徴量抽出部802が抽出した像の特徴量に基づいて、対象物の属性情報を特定する属性情報特定部804(特定手段、特定ステップ)と、属性情報特定部804が特定した属性情報に対応する対応情報を、センサ内蔵液晶パネル301に対象物が載置された状態で表示させる画像制御部806(画像制御手段、画像制御ステップ)と、を備える構成である。   A data display / sensor device 100 (image processing device (its control method)) according to the present embodiment displays an image and a sensor built-in liquid crystal panel 301 (planar member) that detects an image of a nearby object, Based on the feature quantity extraction unit 802 (extraction means, extraction step) that extracts the feature quantity of the image detected by the sensor built-in liquid crystal panel 301 and the feature quantity of the image extracted by the feature quantity extraction unit 802, the attribute information of the object Attribute information specifying unit 804 (specifying means, specifying step) for specifying the corresponding information corresponding to the attribute information specified by the attribute information specifying unit 804 is displayed in a state where the object is placed on the sensor built-in liquid crystal panel 301. And an image control unit 806 (image control means, image control step).

これにより、データ表示/センサ装置100は、ユーザに入力操作を行わせずに(すなわち、ユーザの感覚的な操作によって)、センサ内蔵液晶パネル301に載置された対象物を用いて、当該対象物に応じた情報を容易に表示させることができる。   Thereby, the data display / sensor device 100 uses the object placed on the sensor built-in liquid crystal panel 301 without performing the input operation on the user (that is, by the user's sensory operation). Information according to the object can be easily displayed.

まず、以下で、上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301の概要について説明する。   First, an outline of the sensor built-in liquid crystal panel 301 included in the data display / sensor device 100 will be described below.

〔センサ内蔵液晶パネルの概要〕
上記データ表示/センサ装置100が備えるセンサ内蔵液晶パネル301は、データの表示に加え、対象物の画像検出が可能な液晶パネルである。ここで、対象物の画像検出とは、例えば、ユーザが指やペンなどでポインティング(タッチ)した位置の検出や、印刷物等の画像の読み取り(スキャン)である。なお、表示に用いるデバイスは、液晶パネルに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
[Outline of LCD panel with built-in sensor]
The sensor built-in liquid crystal panel 301 provided in the data display / sensor device 100 is a liquid crystal panel capable of detecting an image of an object in addition to displaying data. Here, the image detection of the object is, for example, detection of a position pointed (touched) by the user with a finger or a pen, or reading (scanning) of an image of a printed material. The device used for display is not limited to a liquid crystal panel, and may be an organic EL (Electro Luminescence) panel or the like.

図2を参照しながら、センサ内蔵液晶パネル301の構造について説明する。図2は、センサ内蔵液晶パネル301の断面を模式的に示す図である。なお、ここで説明するセンサ内蔵液晶パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造のものが利用できる。   The structure of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 2 is a diagram schematically showing a cross section of the sensor built-in liquid crystal panel 301. The sensor built-in liquid crystal panel 301 described here is an example, and any structure can be used as long as the display surface and the reading surface are shared.

図示のとおり、センサ内蔵液晶パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、データ信号線57、光センサ回路32(図示せず)、配向膜58、偏光板59などが設けられる。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられる。また、センサ内蔵液晶パネル301の背面には、バックライト307が設けられている。   As shown in the figure, the sensor built-in liquid crystal panel 301 includes an active matrix substrate 51A disposed on the back surface side and a counter substrate 51B disposed on the front surface side, and has a structure in which a liquid crystal layer 52 is sandwiched between these substrates. is doing. The active matrix substrate 51A is provided with a pixel electrode 56, a data signal line 57, an optical sensor circuit 32 (not shown), an alignment film 58, a polarizing plate 59, and the like. The counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like. In addition, a backlight 307 is provided on the back surface of the sensor built-in liquid crystal panel 301.

なお、光センサ回路32に含まれるフォトダイオード6は、青のカラーフィルタ53bを設けた画素電極56の近傍に設けられているが、この構成に限定されるものではない。赤のカラーフィルタ53rを設けた画素電極56の近傍に設けてもよいし、緑のカラーフィルタ53gを設けた画素電極56の近傍に設けてもよい。   The photodiode 6 included in the photosensor circuit 32 is provided in the vicinity of the pixel electrode 56 provided with the blue color filter 53b, but is not limited to this configuration. It may be provided in the vicinity of the pixel electrode 56 provided with the red color filter 53r, or may be provided in the vicinity of the pixel electrode 56 provided with the green color filter 53g.

次に、図3(a)および図3(b)を参照しながら、ユーザが、指やペンで、センサ内蔵液晶パネル301上をタッチした位置を検出する2種類の方法について説明する。   Next, with reference to FIGS. 3A and 3B, two types of methods for detecting the position where the user touches the sensor built-in liquid crystal panel 301 with a finger or a pen will be described.

図3(a)は、反射像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。バックライト307から光63が出射されると、フォトダイオード6を含む光センサ回路32は、指などの対象物64により反射された光63を検知する。これにより、対象物64の反射像を検知することができる。このように、センサ内蔵液晶パネル301は、反射像を検知することにより、タッチした位置を検出することができる。   FIG. 3A is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a reflected image. When the light 63 is emitted from the backlight 307, the optical sensor circuit 32 including the photodiode 6 detects the light 63 reflected by the object 64 such as a finger. Thereby, the reflected image of the target object 64 can be detected. Thus, the sensor built-in liquid crystal panel 301 can detect the touched position by detecting the reflected image.

また、図3(b)は、影像を検知することにより、ユーザがタッチした位置を検出する様子を示す模式図である。図3(b)に示すように、フォトダイオード6を含む光センサ回路32は、対向基板51Bなどを透過した外光61を検知する。しかしながら、ペンなどの対象物62がある場合は、外光61の入射が妨げられるので、光センサ回路32が検知する光量が減る。これにより、対象物62の影像を検知することができる。このように、センサ内蔵液晶パネル301は、影像を検知することにより、タッチした位置を検出することもできる。   FIG. 3B is a schematic diagram illustrating a state in which a position touched by the user is detected by detecting a shadow image. As shown in FIG. 3B, the optical sensor circuit 32 including the photodiode 6 detects external light 61 transmitted through the counter substrate 51B and the like. However, when there is an object 62 such as a pen, the incident of the external light 61 is hindered, so that the amount of light detected by the optical sensor circuit 32 is reduced. Thereby, a shadow image of the object 62 can be detected. Thus, the sensor built-in liquid crystal panel 301 can also detect a touched position by detecting a shadow image.

上述のように、フォトダイオード6は、バックライト307より出射された光の反射光(影像)を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像とを両方を同時に検知するようにしてもよい。   As described above, the photodiode 6 may detect reflected light (shadow image) of the light emitted from the backlight 307 or may detect a shadow image caused by external light. Further, the two types of detection methods may be used in combination to detect both a shadow image and a reflected image at the same time.

〔データ表示/センサ装置の要部構成〕
次に、図4を参照しながら、上記データ表示/センサ装置100の要部構成について説明する。図4は、データ表示/センサ装置100の要部構成を示すブロック図である。図示のように、データ表示/センサ装置100は、1または複数の表示/光センサ部300、回路制御部600、データ処理部700、主制御部800、記憶部901、一次記憶部902、操作部903、外部通信部907、音声出力部908、および音声入力部909を備えている。ここでは、データ表示/センサ装置100は、単一の表示/光センサ部300を備えているものとして説明するが、複数備えていてもかまわない。
[Data display / sensor configuration]
Next, with reference to FIG. 4, the configuration of the main part of the data display / sensor device 100 will be described. FIG. 4 is a block diagram showing a main configuration of the data display / sensor device 100. As shown in FIG. As illustrated, the data display / sensor device 100 includes one or more display / light sensor units 300, a circuit control unit 600, a data processing unit 700, a main control unit 800, a storage unit 901, a primary storage unit 902, and an operation unit. 903, an external communication unit 907, an audio output unit 908, and an audio input unit 909. Here, although the data display / sensor device 100 is described as including a single display / light sensor unit 300, a plurality of data display / sensor devices 100 may be included.

表示/光センサ部300は、いわゆる光センサ内蔵液晶表示装置である。表示/光センサ部300は、センサ内蔵液晶パネル301、バックライト307、それらを駆動するための周辺回路309を含んで構成される。   The display / light sensor unit 300 is a so-called liquid crystal display device with a built-in light sensor. The display / light sensor unit 300 includes a sensor built-in liquid crystal panel 301, a backlight 307, and a peripheral circuit 309 for driving them.

センサ内蔵液晶パネル301は、マトリクス状に配置された複数の画素回路31および光センサ回路32を含んで構成される。センサ内蔵液晶パネル301の詳細な構成については後述する。   The sensor built-in liquid crystal panel 301 includes a plurality of pixel circuits 31 and photosensor circuits 32 arranged in a matrix. The detailed configuration of the sensor built-in liquid crystal panel 301 will be described later.

周辺回路309は、液晶パネル駆動回路304、光センサ駆動回路305、信号変換回路306、バックライト駆動回路308を含む。   The peripheral circuit 309 includes a liquid crystal panel drive circuit 304, an optical sensor drive circuit 305, a signal conversion circuit 306, and a backlight drive circuit 308.

液晶パネル駆動回路304は、回路制御部600の表示制御部601からのタイミング制御信号(TC1)およびデータ信号(D)に従って、制御信号(G)およびデータ信号(S)を出力し、画素回路31を駆動する回路である。画素回路31の駆動方法の詳細については後述する。   The liquid crystal panel driving circuit 304 outputs a control signal (G) and a data signal (S) in accordance with the timing control signal (TC1) and the data signal (D) from the display control unit 601 of the circuit control unit 600, and the pixel circuit 31. It is a circuit which drives. Details of the driving method of the pixel circuit 31 will be described later.

光センサ駆動回路305は、回路制御部600のセンサ制御部602からのタイミング制御信号(TC2)に従って、信号線(R)に電圧を印加し、光センサ回路32を駆動する回路である。光センサ回路32の駆動方法の詳細については後述する。   The optical sensor driving circuit 305 is a circuit that drives the optical sensor circuit 32 by applying a voltage to the signal line (R) in accordance with a timing control signal (TC2) from the sensor control unit 602 of the circuit control unit 600. Details of the driving method of the optical sensor circuit 32 will be described later.

信号変換回路306は、光センサ回路32から出力されるセンサ出力信号(SS)をデジタル信号(DS)に変換し、該変換後の信号をセンサ制御部602に送信する回路である。   The signal conversion circuit 306 is a circuit that converts the sensor output signal (SS) output from the optical sensor circuit 32 into a digital signal (DS) and transmits the converted signal to the sensor control unit 602.

バックライト307は、複数の白色LED(Light Emitting Diode)を含んでおり、センサ内蔵液晶パネル301の背面に配置される。そして、バックライト駆動回路308から電源電圧が印加されると、バックライト307は点灯し、センサ内蔵液晶パネル301に光を照射する。なお、バックライト307は、白色LEDに限らず、他の色のLEDを含んでいてもよい。また、バックライト307は、LEDに代えて、例えば、冷陰極管(CCFL:Cold Cathode Fluorescent Lamp)を含むものであってもよい。   The backlight 307 includes a plurality of white LEDs (Light Emitting Diodes) and is disposed on the back surface of the sensor built-in liquid crystal panel 301. When a power supply voltage is applied from the backlight drive circuit 308, the backlight 307 is turned on and irradiates the sensor built-in liquid crystal panel 301 with light. Note that the backlight 307 is not limited to white LEDs, and may include LEDs of other colors. The backlight 307 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

バックライト駆動回路308は、回路制御部600のバックライト制御部603からの制御信号(BK)がハイレベルであるときは、バックライト307に電源電圧を印加し、逆に、バックライト制御部603からの制御信号がローレベルであるときは、バックライト307に電源電圧を印加しない。   The backlight driving circuit 308 applies a power supply voltage to the backlight 307 when the control signal (BK) from the backlight control unit 603 of the circuit control unit 600 is at a high level, and conversely, the backlight control unit 603. When the control signal from is at a low level, no power supply voltage is applied to the backlight 307.

次に、回路制御部600について説明する。回路制御部600は、表示/光センサ部300の周辺回路309を制御するデバイスドライバとしての機能を備えるものである。回路制御部600は、表示制御部601、センサ制御部602、バックライト制御部603、および表示データ記憶部604を備えている。   Next, the circuit control unit 600 will be described. The circuit control unit 600 has a function as a device driver that controls the peripheral circuit 309 of the display / light sensor unit 300. The circuit control unit 600 includes a display control unit 601, a sensor control unit 602, a backlight control unit 603, and a display data storage unit 604.

表示制御部601は、データ処理部700の表示データ処理部701から表示データを受信するとともに、表示データ処理部701からの指示に従って、表示/光センサ部300の液晶パネル駆動回路304に、タイミング制御信号(TC1)およびデータ信号(D)を送信し、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。   The display control unit 601 receives display data from the display data processing unit 701 of the data processing unit 700, and performs timing control on the liquid crystal panel driving circuit 304 of the display / light sensor unit 300 in accordance with an instruction from the display data processing unit 701. A signal (TC1) and a data signal (D) are transmitted, and the received display data is displayed on the sensor built-in liquid crystal panel 301.

なお、表示制御部601は、表示データ処理部701から受信した表示データを、表示データ記憶部604に一次記憶させる。そして、当該一次記憶させた表示データに基づいて、データ信号(D)を生成する。表示データ記憶部604は、例えば、VRAM(video random access memory)などである。   The display control unit 601 temporarily stores the display data received from the display data processing unit 701 in the display data storage unit 604. Then, a data signal (D) is generated based on the primary stored display data. The display data storage unit 604 is, for example, a video random access memory (VRAM).

センサ制御部602は、データ処理部700のセンサデータ処理部703からの指示に従って、表示/光センサ部300の光センサ駆動回路305に、タイミング制御信号(TC2)を送信し、センサ内蔵液晶パネル301にてスキャンを実行させる。   The sensor control unit 602 transmits a timing control signal (TC2) to the optical sensor driving circuit 305 of the display / optical sensor unit 300 in accordance with an instruction from the sensor data processing unit 703 of the data processing unit 700, and the sensor built-in liquid crystal panel 301. Run the scan with.

また、センサ制御部602は、信号変換回路306からデジタル信号(DS)を受信する。そして、センサ内蔵液晶パネル301に含まれる全ての光センサ回路32から出力されたセンサ出力信号(SS)に対応するデジタル信号(DS)に基づいて、画像データを生成する。つまり、センサ内蔵液晶パネル301の読み取り領域全体で読み取った画像データを生成する。そして、該生成した画像データをセンサデータ処理部703に送信する。   In addition, the sensor control unit 602 receives a digital signal (DS) from the signal conversion circuit 306. Then, image data is generated based on the digital signal (DS) corresponding to the sensor output signal (SS) output from all the optical sensor circuits 32 included in the sensor built-in liquid crystal panel 301. That is, the image data read in the entire reading area of the sensor built-in liquid crystal panel 301 is generated. Then, the generated image data is transmitted to the sensor data processing unit 703.

バックライト制御部603は、表示データ処理部701およびセンサデータ処理部703からの指示に従って、表示/光センサ部300のバックライト駆動回路308に制御信号(BK)を送信し、バックライト307を駆動させる。   The backlight control unit 603 transmits a control signal (BK) to the backlight drive circuit 308 of the display / light sensor unit 300 in accordance with instructions from the display data processing unit 701 and the sensor data processing unit 703 to drive the backlight 307. Let

なお、データ表示/センサ装置100が、複数の表示/光センサ部300を備える場合、表示制御部601は、データ処理部700から、どの表示/光センサ部300にて表示データを表示するかの指示を受けたとき、当該指示に応じた表示/光センサ部300の液晶パネル駆動回路304を制御する。また、センサ制御部602は、データ処理部700から、どの表示/光センサ部300にて対象物のスキャンを行なうかの指示を受けたとき、当該指示に応じた表示/光センサ部300の光センサ駆動回路305を制御するとともに、当該指示に応じた表示/光センサ部300の信号変換回路306からデジタル信号(DS)を受信する。   When the data display / sensor device 100 includes a plurality of display / light sensor units 300, the display control unit 601 determines which display / light sensor unit 300 displays the display data from the data processing unit 700. When an instruction is received, the liquid crystal panel drive circuit 304 of the display / light sensor unit 300 is controlled according to the instruction. When the sensor control unit 602 receives an instruction from the data processing unit 700 as to which display / light sensor unit 300 is to scan the object, The sensor drive circuit 305 is controlled and a digital signal (DS) is received from the signal conversion circuit 306 of the display / light sensor unit 300 according to the instruction.

次に、データ処理部700について説明する。データ処理部700は、主制御部800から受信する「コマンド」に基づいて、回路制御部600に指示を与えるミドルウェアとしての機能を備えるものである。なお、コマンドの詳細については後述する。   Next, the data processing unit 700 will be described. The data processing unit 700 has a function as middleware that gives an instruction to the circuit control unit 600 based on a “command” received from the main control unit 800. Details of the command will be described later.

データ処理部700は、表示データ処理部701およびセンサデータ処理部703を備えている。そして、データ処理部700が、主制御部800からコマンドを受信すると、該受信したコマンドに含まれる各フィールド(後述する)の値に応じて、表示データ処理部701およびセンサデータ処理部703の少なくとも一方が動作する。   The data processing unit 700 includes a display data processing unit 701 and a sensor data processing unit 703. When the data processing unit 700 receives a command from the main control unit 800, at least one of the display data processing unit 701 and the sensor data processing unit 703 depends on the value of each field (described later) included in the received command. One works.

表示データ処理部701は、主制御部800から表示データを受信するとともに、データ処理部700が受信したコマンドに従って、表示制御部601およびバックライト制御部603に指示を与え、上記受信した表示データをセンサ内蔵液晶パネル301に表示させる。なお、コマンドに応じた、表示データ処理部701の動作については、後述する。   The display data processing unit 701 receives display data from the main control unit 800, and gives instructions to the display control unit 601 and the backlight control unit 603 according to the command received by the data processing unit 700, and displays the received display data. The image is displayed on the sensor built-in liquid crystal panel 301. The operation of the display data processing unit 701 according to the command will be described later.

センサデータ処理部703は、データ処理部700が受信したコマンドに従って、センサ制御部602およびバックライト制御部603に指示を与える。   The sensor data processing unit 703 gives an instruction to the sensor control unit 602 and the backlight control unit 603 according to the command received by the data processing unit 700.

また、センサデータ処理部703は、センサ制御部602から画像データを受信し、当該画像データをそのまま画像データバッファ704に格納する。そして、センサデータ処理部703は、データ処理部700が受信したコマンドに従って、画像データバッファ704に記憶されている画像データに基づいて、「全体画像データ」、「部分画像データ(部分画像の座標データを含む)」、および「座標データ」の少なくともいずれか1つを、主制御部800に送信する。なお、全体画像データ、部分画像データ、および座標データについては、後述する。また、コマンドに応じた、センサデータ処理部703の動作については、後述する。   The sensor data processing unit 703 receives image data from the sensor control unit 602 and stores the image data in the image data buffer 704 as it is. Then, in accordance with the command received by the data processing unit 700, the sensor data processing unit 703 performs “whole image data”, “partial image data (partial image coordinate data) based on the image data stored in the image data buffer 704. At least one of “including coordinate data” and “coordinate data” is transmitted to the main control unit 800. The whole image data, partial image data, and coordinate data will be described later. The operation of the sensor data processing unit 703 according to the command will be described later.

次に、主制御部800は、アプリケーションプログラムを実行するものである。主制御部800は、記憶部901に格納されているプログラムを、例えばRAM(Random Access Memory)等で構成される一次記憶部902に読み出して実行する。   Next, the main control unit 800 executes an application program. The main control unit 800 reads the program stored in the storage unit 901 into a primary storage unit 902 configured by, for example, a RAM (Random Access Memory) and executes the program.

主制御部800で実行されるアプリケーションプログラムは、センサ内蔵液晶パネル301に表示データを表示させたり、センサ内蔵液晶パネル301にて対象物のスキャンを行なわせるために、データ処理部700に対して、コマンドおよび表示データを送信する。また、コマンドに「データ種別」を指定した場合は、当該コマンドの応答として、全体画像データ、部分画像データ、および座標データの少なくともいずれか1つを、データ処理部700から受信する。   An application program executed by the main control unit 800 causes the data processing unit 700 to display display data on the sensor built-in liquid crystal panel 301 or to scan an object on the sensor built-in liquid crystal panel 301. Send commands and display data. When “data type” is designated as a command, at least one of whole image data, partial image data, and coordinate data is received from the data processing unit 700 as a response to the command.

なお、回路制御部600、データ処理部700、および主制御部800は、それぞれ、CPU(Central Processing Unit)およびメモリ等で構成することができる。また、データ処理部700は、ASIC(application specific integrate circuit)などの回路で構成されていてもよい。   The circuit control unit 600, the data processing unit 700, and the main control unit 800 can be configured by a CPU (Central Processing Unit), a memory, and the like, respectively. The data processing unit 700 may be configured by a circuit such as an ASIC (application specific integrate circuit).

次に、記憶部901は、図示のように、主制御部800が実行するプログラムおよびデータを格納するものである。なお、主制御部800が実行するプログラムは、アプリケーション固有のプログラムと、各アプリケーションが共用可能な汎用プログラムとに分離されていてもよい。   Next, the storage unit 901 stores programs and data executed by the main control unit 800 as shown in the figure. The program executed by the main control unit 800 may be separated into an application-specific program and a general-purpose program that can be shared by each application.

次に、操作部903は、データ表示/センサ装置100のユーザの入力操作を受けつけるものである。操作部903は、例えば、スイッチ、リモコン、マウス、キーボードなどの入力デバイスで構成される。そして、操作部903は、データ表示/センサ装置100のユーザの入力操作に応じた制御信号を生成し、該生成した制御信号を主制御部800へ送信する。   Next, the operation unit 903 receives an input operation of the user of the data display / sensor device 100. The operation unit 903 includes input devices such as a switch, a remote controller, a mouse, and a keyboard, for example. Then, the operation unit 903 generates a control signal corresponding to the user's input operation of the data display / sensor device 100, and transmits the generated control signal to the main control unit 800.

なお、上記スイッチの例としては、電源のオンとオフとを切り替える電源スイッチ905、予め所定の機能が割り当てられているユーザスイッチ906などのハードウェアスイッチを想定している。   As an example of the switch, a hardware switch such as a power switch 905 that switches power on and off and a user switch 906 to which a predetermined function is assigned in advance is assumed.

その他、データ表示/センサ装置100は、無線/有線通信によって外部装置と通信を行なうための外部通信部907、音声を出力するためのスピーカ等の音声出力部908、音声信号を入力するためのマイク等の音声入力部909などを適宜備えていてもよい。   In addition, the data display / sensor device 100 includes an external communication unit 907 for communicating with an external device by wireless / wired communication, an audio output unit 908 such as a speaker for outputting audio, and a microphone for inputting an audio signal. A voice input unit 909 such as the above may be provided as appropriate.

〔コマンドの詳細〕
次に、図5および図6を参照しながら、主制御部800からデータ処理部700に送信されるコマンドの詳細について説明する。図5は、コマンドのフレーム構造の一例を模式的に示す図である。また、図6は、コマンドに含まれる各フィールドに指定可能な値の一例、および、その概要を説明する図である。
[Details of command]
Next, details of commands transmitted from the main control unit 800 to the data processing unit 700 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram schematically illustrating an example of a command frame structure. FIG. 6 is a diagram for explaining an example of values that can be specified for each field included in the command and an outline thereof.

図5に示すように、コマンドは、「ヘッダ」、「データ取得タイミング」、「データ種別」、「スキャン方式」、「スキャン画像階調」、「スキャン解像度」、「スキャンパネル」、「表示パネル」、および「予備」の各フィールドを含んでいる。そして、各フィールドには、例えば、図6に示す値が指定可能である。   As shown in FIG. 5, the commands are “header”, “data acquisition timing”, “data type”, “scan method”, “scan image gradation”, “scan resolution”, “scan panel”, “display panel”. "And" Reserve "fields. In each field, for example, values shown in FIG. 6 can be designated.

「ヘッダ」フィールドは、フレームの開始を示すフィールドである。「ヘッダ」フィールドであることが識別可能であれば、「ヘッダ」フィールドの値は、どのような値であってもよい。   The “header” field is a field indicating the start of a frame. As long as it is possible to identify the “header” field, the value of the “header” field may be any value.

次に、「データ取得タイミング」フィールドは、データを主制御部800へ送信すべきタイミングを指定するフィールドである。「データ取得タイミング」フィールドには、例えば、“00”(センス)、“01”(イベント)、および“10”(オール)という値が指定可能である。   Next, the “data acquisition timing” field is a field for designating a timing at which data should be transmitted to the main control unit 800. In the “data acquisition timing” field, for example, values “00” (sense), “01” (event), and “10” (all) can be specified.

ここで、“センス”は、最新のデータを直ちに送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“センス”であるコマンドを受信すると、「データ種別」フィールドにて指定されている最新のデータを、直ちに、主制御部800に送信する。   Here, “sense” specifies that the latest data is to be transmitted immediately. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “sense”, the latest data specified in the “data type” field is immediately updated to the main control unit 800. Send to.

また、“イベント”は、センサ制御部602から受信する画像データに変化が生じたタイミングで送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“イベント”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、センサ制御部602から受信する画像データに、所定の閾値より大きい変化が生じたタイミングで、主制御部800に送信する。   The “event” designates transmission at a timing when a change occurs in the image data received from the sensor control unit 602. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “event”, the image that receives the data specified in the “data type” field from the sensor control unit 602. The data is transmitted to the main control unit 800 at a timing when a change larger than a predetermined threshold occurs.

また、“オール”は、所定周期でデータを送信すること指定するものである。よって、センサデータ処理部703は、「データ取得タイミング」フィールドの値が“オール”であるコマンドを受信すると、「データ種別」フィールドにて指定されているデータを、所定周期で、主制御部800に送信する。なお、上記所定周期は、光センサ回路32にてスキャンを行なう周期と一致する。   “All” designates data transmission at a predetermined cycle. Therefore, when the sensor data processing unit 703 receives a command whose value in the “data acquisition timing” field is “all”, the data designated in the “data type” field is transferred to the main control unit 800 at a predetermined cycle. Send to. The predetermined period coincides with the period in which the optical sensor circuit 32 performs scanning.

次に、「データ種別」フィールドは、センサデータ処理部703から取得するデータの種別を指定するフィールドである。なお、「データ種別」フィールドには、例えば、“001”(座標)、“010”(部分画像)、および“100”(全体画像)という値が指定可能である。さらに、これらの値を加算することによって、“座標”と、“部分画像”/“全体画像”とを、同時に指定可能である。例えば、“座標”と“部分画像”とを同時に指定する場合、“011”と指定することができる。   Next, the “data type” field is a field for designating the type of data acquired from the sensor data processing unit 703. In the “data type” field, for example, values of “001” (coordinates), “010” (partial image), and “100” (entire image) can be specified. Furthermore, by adding these values, “coordinates” and “partial image” / “whole image” can be specified simultaneously. For example, when “coordinate” and “partial image” are specified at the same time, “011” can be specified.

センサデータ処理部703は、「データ種別」フィールドの値が“全体画像”であるコマンドを受信すると、画像データバッファ704に記憶している画像データそのものを主制御部800に送信する。画像データバッファ704に記憶している画像データそのものを、「全体画像データ」と称する。   When the sensor data processing unit 703 receives a command whose value of the “data type” field is “whole image”, the sensor data processing unit 703 transmits the image data itself stored in the image data buffer 704 to the main control unit 800. The image data itself stored in the image data buffer 704 is referred to as “whole image data”.

また、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信すると、センサ制御部602から受信する画像データから、所定の閾値より大きい変化が生じた部分を含む領域を抽出し、該抽出した領域の画像データを主制御部800に送信する。ここで、当該画像データを、「部分画像データ」と称する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出されたそれぞれの部分画像データを主制御部800に送信する。   In addition, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 selects a portion where a change larger than a predetermined threshold has occurred from the image data received from the sensor control unit 602. A region to be included is extracted, and image data of the extracted region is transmitted to the main control unit 800. Here, the image data is referred to as “partial image data”. When a plurality of partial image data are extracted, the sensor data processing unit 703 transmits each extracted partial image data to the main control unit 800.

さらに、センサデータ処理部703は、「データ種別」フィールドの値が“部分画像”であるコマンドを受信したとき、部分画像データにおける代表座標を検出し、当該代表座標の部分画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記代表座標とは、例えば、上記部分画像データの中心の座標、上記部分画像データの重心の座標などが挙げられる。   Further, when the sensor data processing unit 703 receives a command whose value of the “data type” field is “partial image”, the sensor data processing unit 703 detects representative coordinates in the partial image data and indicates the position of the representative coordinates in the partial image data. The coordinate data is transmitted to the main control unit 800. The representative coordinates include, for example, the coordinates of the center of the partial image data, the coordinates of the center of gravity of the partial image data, and the like.

次に、センサデータ処理部703は、「データ種別」フィールドの値が“座標”であるコマンドを受信すると、上記代表座標の全体画像データにおける位置を示す座標データを主制御部800に送信する。なお、上記部分画像データが複数抽出された場合、センサデータ処理部703は、該抽出された、それぞれの部分画像データの、全体画像データにおける代表座標を検出し、当該代表座標を示す座標データのそれぞれを主制御部800に送信する(多点検出)。   Next, when receiving a command whose value of the “data type” field is “coordinate”, the sensor data processing unit 703 transmits coordinate data indicating the position of the representative coordinate in the entire image data to the main control unit 800. When a plurality of partial image data are extracted, the sensor data processing unit 703 detects representative coordinates in the entire image data of the extracted partial image data, and the coordinate data indicating the representative coordinates is detected. Each is transmitted to the main control unit 800 (multi-point detection).

なお、全体画像データ、部分画像データ、および座標データの具体例については、模式図を参照しながら後述する。   Specific examples of the whole image data, the partial image data, and the coordinate data will be described later with reference to schematic diagrams.

次に、「スキャン方式」フィールドは、スキャン実行時に、バックライト307を点灯するか否かを指定するフィールドである。「スキャン方式」フィールドには、例えば、“00”(反射)、“01”(透過)、および“10”(反射/透過)という値が指定可能である。   Next, the “scan method” field is a field for designating whether or not the backlight 307 is turned on at the time of executing the scan. In the “scan method” field, for example, values of “00” (reflection), “01” (transmission), and “10” (reflection / transmission) can be designated.

“反射”は、バックライト307を点灯した状態でスキャンを行なうこと指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“反射”であるコマンドを受信すると、光センサ駆動回路305とバックライト駆動回路308とが同期して動作するように、センサ制御部602とバックライト制御部603とに指示を与える。   “Reflection” specifies that scanning is performed with the backlight 307 turned on. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “reflection”, the sensor data processing unit 703 performs sensor control so that the optical sensor driving circuit 305 and the backlight driving circuit 308 operate in synchronization. An instruction is given to the unit 602 and the backlight control unit 603.

また、“透過”は、バックライト307を消灯した状態でスキャンを行なうことを指定するものである。よって、センサデータ処理部703は、「スキャン方式」フィールドの値が“透過”であるコマンドを受信すると、光センサ駆動回路305を動作させ、バックライト駆動回路308と動作させないようにセンサ制御部602とバックライト制御部603とに指示を与える。なお、“反射/透過”は、“反射”と“透過”とを併用してスキャンを行なうことを指定するものである。   “Transmission” specifies that scanning is performed with the backlight 307 turned off. Therefore, when the sensor data processing unit 703 receives a command whose “scan method” field value is “transparent”, the sensor control unit 602 operates the optical sensor driving circuit 305 and does not operate the backlight driving circuit 308. Instructions to the backlight control unit 603. Note that “reflection / transmission” specifies that scanning is performed using both “reflection” and “transmission”.

次に、「スキャン画像階調」フィールドは、部分画像データおよび全体画像データの階調を指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“00”(2値)、および“01”(多値)という値が指定可能である。   Next, the “scanned image gradation” field is a field for designating gradations of the partial image data and the entire image data. In the “scanned image gradation” field, for example, values of “00” (binary) and “01” (multivalue) can be designated.

ここで、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“2値”であるコマンドを受信すると、部分画像データおよび全体画像データをモノクロデータとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scan image gradation” field value is “binary”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as monochrome data. .

また、センサデータ処理部703は、「スキャン画像階調」フィールドの値が“多値”であるコマンドを受信すると、部分画像データおよび全体画像データを多階調データとして、主制御部800に送信する。   When the sensor data processing unit 703 receives a command whose “scanned image gradation” field value is “multivalued”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 as multitone data. To do.

次に、「スキャン解像度」フィールドは、部分画像データおよび全体画像データの解像度を指定するフィールドである。「解像度」フィールドには、例えば、“0”(高)および“1”(低)という値が指定可能である。   Next, the “scan resolution” field is a field for designating the resolution of the partial image data and the entire image data. In the “resolution” field, for example, values of “0” (high) and “1” (low) can be designated.

ここで、“高”は、高解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“高”であるコマンドを受信すると、部分画像データおよび全体画像データを高解像度で主制御部800に送信する。例えば、画像認識などの画像処理を行なう対象の画像データ(指紋などの画像データ)には、“高”を指定することが望ましい。   Here, “high” designates a high resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “high”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 with high resolution. For example, it is desirable to designate “high” for image data (image data such as a fingerprint) to be subjected to image processing such as image recognition.

また、“低”は、低解像度を指定するものである。よって、センサデータ処理部703は、「スキャン解像度」フィールドの値が“低”であるコマンドを受信すると、部分画像データおよび全体画像データを低解像度で主制御部800に送信する。例えば、タッチした位置等が分かる程度でよい画像データ(タッチした指や手の画像データなど)には、“低”を指定することが望ましい。   “Low” designates a low resolution. Therefore, when the sensor data processing unit 703 receives a command whose “scan resolution” field value is “low”, the sensor data processing unit 703 transmits the partial image data and the entire image data to the main control unit 800 at a low resolution. For example, it is desirable to designate “low” for image data (such as touched finger or hand image data) that only needs to be recognized.

次に、「スキャンパネル」フィールドは、データ表示/センサ装置100が、複数の表示/光センサ部300を備えているときに、どの表示/光センサ部300にて対象物のスキャンを行なうかを指定するフィールドである。「スキャンパネル」フィールドには、例えば、“001”(一番目の表示/光センサ部300(第1表示/光センサ部))、“010”(二番目の表示/光センサ部300(第2表示/光センサ部))という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、一番目と二番目の両方の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, in the “scan panel” field, when the data display / sensor device 100 includes a plurality of display / light sensor units 300, which display / light sensor unit 300 performs scanning of an object. This field is specified. In the “scan panel” field, for example, “001” (first display / light sensor section 300 (first display / light sensor section)), “010” (second display / light sensor section 300 (second display) A value of display / light sensor unit)) can be specified. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when both the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、センサデータ処理部703は、受信したコマンドの「スキャンパネル」フィールドの値に従って、指定された表示/光センサ部300の光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与える。   Here, the sensor data processing unit 703 controls the photo sensor driving circuit 305 and the backlight driving circuit 308 of the designated display / light sensor unit 300 according to the value of the “scan panel” field of the received command. An instruction is given to the sensor control unit 602 and the backlight control unit 603.

なお、本実施形態に係るデータ表示/センサ装置100は、単一の表示/光センサ部300を備えた構成となっている。ここでは、センサデータ処理部703は、「スキャンパネル」フィールドの値が“第1表示/光センサ部”であるコマンドを受信すると、表示/光センサ部300の光センサ駆動回路305およびバックライト駆動回路308を制御するように、センサ制御部602およびバックライト制御部603に指示を与えるものとする。   Note that the data display / sensor device 100 according to the present embodiment has a single display / light sensor unit 300. Here, when the sensor data processing unit 703 receives a command in which the value of the “scan panel” field is “first display / light sensor unit”, the light sensor driving circuit 305 and the backlight driving of the display / light sensor unit 300 are received. An instruction is given to the sensor control unit 602 and the backlight control unit 603 so as to control the circuit 308.

次に、「表示パネル」フィールドは、データ表示/センサ装置100が、複数の表示/光センサ部300を備えているときに、どの表示/光センサ部300にて表示データを表示させるかを指定するフィールドである。「スキャン画像階調」フィールドには、例えば、“001”(一番目の表示/光センサ部300(第1表示/光センサ部))、“010” (二番目の表示/光センサ部300(第2表示/光センサ部))という値が指定可能である。なお、これらの値を加算することによって、複数の表示/光センサ部300を同時に指定可能である。例えば、一番目と二番目の両方の表示/光センサ部300を同時に指定する場合、“011”と指定することができる。   Next, the “display panel” field specifies which display / light sensor unit 300 displays the display data when the data display / sensor device 100 includes a plurality of display / light sensor units 300. It is a field to be. In the “scanned image gradation” field, for example, “001” (first display / light sensor unit 300 (first display / light sensor unit)), “010” (second display / light sensor unit 300 ( A value of second display / light sensor part)) can be specified. By adding these values, a plurality of display / light sensor units 300 can be specified at the same time. For example, when both the first and second display / light sensor units 300 are specified at the same time, “011” can be specified.

ここで、表示データ処理部701は、例えば、「表示パネル」フィールドの値が表示/光センサ部300であるコマンドを受信すると、表示/光センサ部300に表示データを表示させるために、表示/光センサ部300の液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与える。   Here, for example, when the display data processing unit 701 receives a command whose value of the “display panel” field is the display / light sensor unit 300, the display / light sensor unit 300 displays the display / light sensor unit 300 to display the display data. An instruction is given to the display control unit 601 and the backlight control unit 603 so as to control the liquid crystal panel driving circuit 304 and the backlight driving circuit 308 of the optical sensor unit 300.

なお、本実施形態に係るデータ表示/センサ装置100は、単一の表示/光センサ部300を備えた構成となっている。ここでは、表示データ処理部701は、「表示パネル」フィールドの値が“第1表示/光センサ部”であるコマンドを受信すると、表示/光センサ部300に表示データを表示させるために、表示/光センサ部300の液晶パネル駆動回路304およびバックライト駆動回路308を制御するように、表示制御部601およびバックライト制御部603に指示を与えるものとする。   Note that the data display / sensor device 100 according to the present embodiment has a single display / light sensor unit 300. Here, when the display data processing unit 701 receives a command whose value of the “display panel” field is “first display / light sensor unit”, the display / light sensor unit 300 displays the display data in order to display the display data. / An instruction is given to the display control unit 601 and the backlight control unit 603 so as to control the liquid crystal panel drive circuit 304 and the backlight drive circuit 308 of the optical sensor unit 300.

次に、「予備」フィールドは、上述したフィールドにて指定可能な情報以外の情報をさらに指定する必要がある場合に、適宜指定されるフィールドである。   Next, the “reserved” field is a field that is appropriately specified when it is necessary to further specify information other than information that can be specified in the above-described fields.

なお、主制御部800にて実行されるアプリケーションは、コマンドを送信するにあたり、上述したフィールドを全て使用する必要はなく、使用しないフィールドには無効値(NULL値など)を設定しておけばよい。   Note that an application executed by the main control unit 800 does not need to use all the above-described fields when transmitting a command, and an invalid value (such as a NULL value) may be set for a field that is not used. .

また、ユーザが指やペンなどでタッチした位置の座標データを取得したいときは、「データ種別」フィールドに“座標”を指定したコマンドをデータ処理部700に送信することとなるが、指やペンなどは動きがあるため、さらに、当該コマンドの「データ取得タイミング」フィールドに“オール”を指定し、座標データを取得するようにすることが望ましい。また、タッチした位置の座標データが取得できればよいため、スキャンの精度は高くなくてもよい。したがって、上記コマンドの「解像度」フィールドの値は“低”を指定しておけばよい。   When the user wants to acquire coordinate data of a position touched with a finger or pen, a command specifying “coordinate” in the “data type” field is transmitted to the data processing unit 700. Therefore, it is desirable to specify “all” in the “data acquisition timing” field of the command to acquire coordinate data. Further, since it is only necessary to acquire coordinate data of the touched position, the scanning accuracy may not be high. Therefore, “low” may be specified as the value of the “resolution” field of the command.

また、コマンドの「データ種別」フィールドに“座標”を指定した場合において、例えば、ユーザが、複数の指やペンなどでセンサ内蔵液晶パネル301を同時にタッチした場合は、該タッチした位置の座標データのそれぞれを取得することができる(多点検出)。   Further, when “coordinate” is specified in the “data type” field of the command, for example, when the user touches the sensor built-in liquid crystal panel 301 with a plurality of fingers or pens at the same time, the coordinate data of the touched position is used. Can be acquired (multi-point detection).

また、原稿などの対象物の画像データを取得する場合、「データ種別」フィールドに“全体画像”を指定したコマンドをデータ処理部700に送信することとなるが、原稿などの対象物は、通常、静止させた状態でスキャンを実行することが一般的であるため、周期的にスキャンを実行する必要はない。従って、この場合は、「データ取得タイミング」フィールドに“センス”または“イベント”を指定することが望ましい。なお、原稿などの対象物をスキャンするときは、ユーザが文字を読みやすいように、スキャン精度は高い方が望ましい。したがって、「解像度」フィールドには“高”を指定することが望ましい。   When acquiring image data of an object such as a document, a command specifying “whole image” in the “data type” field is transmitted to the data processing unit 700. Since it is common to perform a scan in a stationary state, it is not necessary to periodically perform the scan. Therefore, in this case, it is desirable to designate “sense” or “event” in the “data acquisition timing” field. When scanning an object such as a document, it is desirable that the scanning accuracy is high so that the user can easily read the characters. Therefore, it is desirable to designate “high” in the “resolution” field.

〔全体画像データ/部分画像データ/座標データ〕
次に、図7を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。図7(a)に示す画像データは、対象物がセンサ内蔵液晶パネル301上に置かれていないときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。また、図7(b)に示す画像データは、ユーザが指でセンサ内蔵液晶パネル301をタッチしているときに、センサ内蔵液晶パネル301全体をスキャンした結果として得られる画像データである。
[Whole image data / Partial image data / Coordinate data]
Next, the whole image data, the partial image data, and the coordinate data will be described with reference to FIG. The image data shown in FIG. 7A is image data obtained as a result of scanning the entire sensor built-in liquid crystal panel 301 when the object is not placed on the sensor built-in liquid crystal panel 301. The image data shown in FIG. 7B is image data obtained as a result of scanning the entire sensor-equipped liquid crystal panel 301 when the user touches the sensor-equipped liquid crystal panel 301 with a finger.

ユーザが指でセンサ内蔵液晶パネル301をタッチしたとき、当該タッチした近傍の光センサ回路32が受光する光量が変化するため、当該光センサ回路32が出力する電圧に変化が生じ、その結果として、センサ制御部602が生成する画像データのうち、ユーザがタッチした部分の画素値の明度に変化が生じることとなる。   When the user touches the sensor built-in liquid crystal panel 301 with a finger, the amount of light received by the photosensor circuit 32 in the vicinity of the touch changes, so that the voltage output from the photosensor circuit 32 changes, and as a result, In the image data generated by the sensor control unit 602, the brightness of the pixel value of the portion touched by the user changes.

図7(b)に示す画像データでは、図7(a)に示す画像データと比べると、ユーザの指に該当する部分の画素値の明度が高くなっている。そして、図7(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)が、“部分画像データ”である。   In the image data shown in FIG. 7B, the brightness of the pixel value of the portion corresponding to the user's finger is higher than that in the image data shown in FIG. In the image data shown in FIG. 7B, the smallest rectangular area (area PP) that includes all pixel values whose lightness changes more than a predetermined threshold is “partial image data”.

なお、領域APで示される画像データが、“全体画像データ”である。   The image data indicated by the area AP is “whole image data”.

また、部分画像データ(領域PP)の代表座標Zの、全体画像データ(領域AP)における座標データは(Xa,Ya)であり、部分画像データ(領域PP)における座標データは(Xp,Yp)である。   Also, the coordinate data in the whole image data (area AP) of the representative coordinates Z of the partial image data (area PP) is (Xa, Ya), and the coordinate data in the partial image data (area PP) is (Xp, Yp). It is.

〔センサ内蔵液晶パネルの構成〕
次に、図8を参照しながら、センサ内蔵液晶パネル301の構成、および、センサ内蔵液晶パネル301の周辺回路309の構成について説明する。図8は、表示/光センサ部300の要部、特に、センサ内蔵液晶パネル301の構成および周辺回路309の構成を示すブロック図である。
[Configuration of LCD panel with built-in sensor]
Next, the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309 of the sensor built-in liquid crystal panel 301 will be described with reference to FIG. FIG. 8 is a block diagram showing the main part of the display / light sensor unit 300, particularly the configuration of the sensor built-in liquid crystal panel 301 and the configuration of the peripheral circuit 309.

センサ内蔵液晶パネル301は、光透過率(輝度)を設定するための画素回路31、および、自身が受光した光の強度に応じた電圧を出力する光センサ回路32を備えている。なお、画素回路31は、赤色、緑色、青色のカラーフィルタのそれぞれに対応するR画素回路31r、G画素回路31g、B画素回路31bの総称して用いる。   The sensor built-in liquid crystal panel 301 includes a pixel circuit 31 for setting light transmittance (brightness) and an optical sensor circuit 32 that outputs a voltage corresponding to the intensity of light received by the sensor. Note that the pixel circuit 31 is a generic term for the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b corresponding to the red, green, and blue color filters, respectively.

画素回路31は、センサ内蔵液晶パネル301上の列方向(縦方向)にm個、行方向(横方向)に3n個配置される。そして、R画素回路31r、G画素回路31g、およびB画素回路31bの組が、行方向(横方向)に連続して配置される。この組が1つの画素を形成する。   The pixel circuits 31 are arranged on the sensor built-in liquid crystal panel 301 in the column direction (vertical direction) and 3n in the row direction (horizontal direction). A set of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b is continuously arranged in the row direction (lateral direction). This set forms one pixel.

画素回路31の光透過率を設定するには、まず、画素回路31に含まれるTFT(Thin Film Transistor)33のゲート端子に接続される走査信号線Giにハイレベル電圧(TFT33をオン状態にする電圧)を印加する。その後、R画素回路31rのTFT33のソース端子に接続されているデータ信号線SRjに、所定の電圧を印加する。同様に、G画素回路31gおよびB画素回路31bについても、光透過率を設定する。そして、これらの光透過率を設定することにより、センサ内蔵液晶パネル301上に画像が表示される。   In order to set the light transmittance of the pixel circuit 31, first, the high level voltage (TFT 33 is turned on) to the scanning signal line Gi connected to the gate terminal of the TFT (Thin Film Transistor) 33 included in the pixel circuit 31. Voltage). Thereafter, a predetermined voltage is applied to the data signal line SRj connected to the source terminal of the TFT 33 of the R pixel circuit 31r. Similarly, the light transmittance is also set for the G pixel circuit 31g and the B pixel circuit 31b. Then, by setting these light transmittances, an image is displayed on the sensor built-in liquid crystal panel 301.

次に、光センサ回路32は、一画素毎に配置される。なお、R画素回路31r、G画素回路31g、およびB画素回路31bのそれぞれの近傍に1つずつ配置されてもよい。   Next, the photosensor circuit 32 is arranged for each pixel. One pixel may be arranged in the vicinity of each of the R pixel circuit 31r, the G pixel circuit 31g, and the B pixel circuit 31b.

光センサ回路32にて光の強度に応じた電圧を出力させるためには、まず、コンデンサ35の一方の電極に接続されているセンサ読み出し線RWiと、フォトダイオード6のアノード端子に接続されているセンサリセット線RSiとに所定の電圧を印加する。この状態において、フォトダイオード6に光が入射されると、入射した光量に応じた電流がフォトダイオード6に流れる。そして、当該電流に応じて、コンデンサ35の他方の電極とフォトダイオード6のカソード端子との接続点(以下、接続ノードV)の電圧が低下する。そして、センサプリアンプ37のドレイン端子に接続される電圧印加線SDjに電源電圧VDDを印加すると、接続ノードVの電圧は増幅され、センサプリアンプ37のソース端子からセンシングデータ出力線SPjに出力される。そして、当該出力された電圧に基づいて、光センサ回路32が受光した光量を算出することができる。   In order for the optical sensor circuit 32 to output a voltage according to the light intensity, first, the sensor readout line RWi connected to one electrode of the capacitor 35 and the anode terminal of the photodiode 6 are connected. A predetermined voltage is applied to the sensor reset line RSi. In this state, when light is incident on the photodiode 6, a current corresponding to the amount of incident light flows through the photodiode 6. And according to the said electric current, the voltage of the connection point (henceforth connection node V) of the other electrode of the capacitor | condenser 35 and the cathode terminal of the photodiode 6 falls. When the power supply voltage VDD is applied to the voltage application line SDj connected to the drain terminal of the sensor preamplifier 37, the voltage at the connection node V is amplified and output from the source terminal of the sensor preamplifier 37 to the sensing data output line SPj. Based on the output voltage, the amount of light received by the optical sensor circuit 32 can be calculated.

次に、センサ内蔵液晶パネル301の周辺回路である、液晶パネル駆動回路304、光センサ駆動回路305、およびセンサ出力アンプ44について説明する。   Next, the liquid crystal panel drive circuit 304, the optical sensor drive circuit 305, and the sensor output amplifier 44, which are peripheral circuits of the sensor built-in liquid crystal panel 301, will be described.

液晶パネル駆動回路304は、画素回路31を駆動するための回路であり、走査信号線駆動回路3041およびデータ信号線駆動回路3042を含んでいる。   The liquid crystal panel drive circuit 304 is a circuit for driving the pixel circuit 31, and includes a scanning signal line drive circuit 3041 and a data signal line drive circuit 3042.

走査信号線駆動回路3041は、表示制御部601から受信したタイミング制御信号TC1に基づいて、1ライン時間毎に、走査信号線G1〜Gmの中から1本の走査信号線を順次選択し、該選択した走査信号線にハイレベル電圧を印加するとともに、その他の走査信号線にローレベル電圧を印加する。   The scanning signal line driving circuit 3041 sequentially selects one scanning signal line from the scanning signal lines G1 to Gm for each line time based on the timing control signal TC1 received from the display control unit 601, and A high level voltage is applied to the selected scanning signal line, and a low level voltage is applied to the other scanning signal lines.

データ信号線駆動回路3042は、表示制御部601から受信した表示データD(DR、DG、およびDB)に基づいて、1ライン時間毎に、1行分の表示データに対応する所定の電圧を、データ信号線SR1〜SRn、SG1〜SGn、SB1〜SBnに印加する(線順次方式)。なお、データ信号線駆動回路3042は、点順次方式で駆動するものであってもよい。   Based on the display data D (DR, DG, and DB) received from the display controller 601, the data signal line driver circuit 3042 generates a predetermined voltage corresponding to the display data for one row for each line time. The data signal lines SR1 to SRn, SG1 to SGn, and SB1 to SBn are applied (line sequential method). Note that the data signal line driver circuit 3042 may be driven by a dot sequential method.

光センサ駆動回路305は、光センサ回路32を駆動するための回路である。光センサ駆動回路305は、センサ制御部602から受信したタイミング制御信号TC2に基づいて、センサ読み出し信号線RW1〜RWmの中から、1ライン時間毎に1本ずつ選択したセンサ読み出し信号線に所定の読み出し用電圧を印加するとともに、その他のセンサ読み出し信号線には、所定の読み出し用電圧以外の電圧を印加する。また、同様に、タイミング制御信号TC2に基づいて、センサリセット信号線RS1〜RSmの中から、1ライン時間毎に1本ずつ選択したセンサリセット信号線に所定のリセット用電圧を印加するとともに、その他のセンサリセット信号線には、所定のリセット用電圧以外の電圧を印加する。   The optical sensor driving circuit 305 is a circuit for driving the optical sensor circuit 32. Based on the timing control signal TC2 received from the sensor control unit 602, the optical sensor driving circuit 305 selects a predetermined sensor readout signal line from the sensor readout signal lines RW1 to RWm for each line time. A read voltage is applied, and a voltage other than a predetermined read voltage is applied to the other sensor read signal lines. Similarly, based on the timing control signal TC2, a predetermined reset voltage is applied to the sensor reset signal line selected from the sensor reset signal lines RS1 to RSm for each line time, and the others. A voltage other than a predetermined reset voltage is applied to the sensor reset signal line.

センシングデータ出力信号線SP1〜SPnはp個(pは1以上n以下の整数)のグループにまとめられ、各グループに属するセンシングデータ出力信号線は、時分割で順次オン状態になるスイッチ47を介して、センサ出力アンプ44に接続される。センサ出力アンプ44は、スイッチ47により接続されたセンシングデータ出力信号線のグループからの電圧を増幅し、センサ出力信号SS(SS1〜SSp)として、信号変換回路306へ出力する。   The sensing data output signal lines SP1 to SPn are grouped into p groups (p is an integer of 1 to n), and the sensing data output signal lines belonging to each group are connected via a switch 47 that is sequentially turned on in time division. And connected to the sensor output amplifier 44. The sensor output amplifier 44 amplifies the voltage from the group of sensing data output signal lines connected by the switch 47 and outputs the amplified voltage to the signal conversion circuit 306 as sensor output signals SS (SS1 to SSp).

〔データ表示/センサ装置のより詳細な構成〕
次に、図1を参照しながら、データ表示/センサ装置100のより詳細な構成について説明する。なお、ここでは、説明を分かりやすくするために、主制御部800と表示/光センサ部300との間に位置するデータ処理部700および回路制御部600の動作については説明を省略する。ただし、正確には、画像の表示および医薬品またはサプリメント(以下、服用品とする)のスキャンを行うにあたり、主制御部800の各部が、データ処理部700にコマンドを送信し、データ処理部700がコマンドに基づいて回路制御部600を制御し、回路制御部600が表示/光センサ部300に対して信号を送信する。また、主制御部800は、データ処理部700に対して送信したコマンドに対する応答として、データ処理部700から、全体画像データ、部分画像データ、および座標データを取得する。
[More detailed configuration of data display / sensor device]
Next, a more detailed configuration of the data display / sensor device 100 will be described with reference to FIG. Here, in order to make the description easy to understand, the description of the operations of the data processing unit 700 and the circuit control unit 600 located between the main control unit 800 and the display / light sensor unit 300 is omitted. However, to be precise, when displaying an image and scanning a medicine or a supplement (hereinafter referred to as “apparel”), each unit of the main control unit 800 transmits a command to the data processing unit 700, and the data processing unit 700 The circuit control unit 600 is controlled based on the command, and the circuit control unit 600 transmits a signal to the display / light sensor unit 300. Further, the main control unit 800 acquires the entire image data, the partial image data, and the coordinate data from the data processing unit 700 as a response to the command transmitted to the data processing unit 700.

図1は、データ表示/センサ装置100のより詳細な構成を示すブロック図である。図示のように、主制御部800は、例えば対象物(例えば実物である服用品)の情報を多数同時に画像認識で読み取り、個々の関連性の情報を得るために、像取得部801、特徴量抽出部802、種別/文字認識部803、属性情報特定部804、位置情報書込部805、画像制御部806、モード設定部807および計時部808を備えている。   FIG. 1 is a block diagram showing a more detailed configuration of the data display / sensor device 100. As shown in the figure, the main control unit 800 reads, for example, many pieces of information on an object (for example, real clothes) simultaneously by image recognition, and obtains information on individual relevance. An extraction unit 802, a type / character recognition unit 803, an attribute information specifying unit 804, a position information writing unit 805, an image control unit 806, a mode setting unit 807 and a timing unit 808 are provided.

像取得部801は、センサ内蔵液晶パネル301が検知した対象物の像のデータを全体画像データとして取得すると共に、当該全体画像データに含まれる各像の位置のデータを座標データとして取得するものである。   The image acquisition unit 801 acquires image data of an object detected by the sensor built-in liquid crystal panel 301 as entire image data, and acquires data on the position of each image included in the entire image data as coordinate data. is there.

特徴量抽出部802は、一般的な画像認識技術(文字認識技術)を用いて、全体画像データに対する画像補正を行い、当該画像補正を行った全体画像データから、像の特徴量を抽出するものである。すなわち、特徴量抽出部802は、センサ内蔵液晶パネル301が検知した像の特徴量を抽出するものといえる。   The feature amount extraction unit 802 performs image correction on the entire image data using a general image recognition technology (character recognition technology), and extracts the feature amount of the image from the entire image data subjected to the image correction. It is. That is, it can be said that the feature quantity extraction unit 802 extracts the feature quantity of the image detected by the sensor built-in liquid crystal panel 301.

種別/文字認識部803は、センサ内蔵液晶パネル301上に対象物の種別、または、対象物に印字された文字、記号などの認識を行うものである。種別/文字認識部803は、特徴量抽出部802が抽出した像の特徴量と記憶部901に格納された複数の標準パターンとを比較することにより、当該像の特徴量が、何れの標準パターンと最もよく類似しているのかを判定することにより、上記種別または文字、記号などの認識を行う。   The type / character recognizing unit 803 recognizes the type of the object on the sensor built-in liquid crystal panel 301 or the characters and symbols printed on the object. The type / character recognition unit 803 compares the feature quantity of the image extracted by the feature quantity extraction unit 802 with a plurality of standard patterns stored in the storage unit 901, so that the feature quantity of the image is determined as any standard pattern. The type, character, symbol, or the like is recognized by determining whether it is most similar to the above.

属性情報特定部804は、種別/文字認識部803の認識結果に基づいて、記憶部901に格納された属性情報を参照して、各像に対応した属性情報を特定するものである。すなわち、属性情報特定部804は、特徴量抽出部802が抽出した像の特徴量に基づいて、対象物の属性情報を特定するものといえる。   The attribute information specifying unit 804 specifies attribute information corresponding to each image by referring to the attribute information stored in the storage unit 901 based on the recognition result of the type / character recognition unit 803. That is, it can be said that the attribute information specifying unit 804 specifies the attribute information of the object based on the feature amount of the image extracted by the feature amount extracting unit 802.

また、属性情報特定部804は、各像に対応した属性情報が記憶部901に格納されていないと判断した場合には、外部通信部907を介して、ネットワーク上から当該属性情報を取得してもよい。   If the attribute information specifying unit 804 determines that attribute information corresponding to each image is not stored in the storage unit 901, the attribute information specifying unit 804 acquires the attribute information from the network via the external communication unit 907. Also good.

画像制御部806は、モード設定部807が設定する画像データ作成モードに応じた画像データを作成し、当該画像データをセンサ内蔵液晶パネル301に表示させるものである。   The image control unit 806 creates image data corresponding to the image data creation mode set by the mode setting unit 807, and displays the image data on the sensor built-in liquid crystal panel 301.

モード設定部807は、画像制御部806が適切な画像データ作成処理を行うことが可能なように、画像データ作成モードを設定するものである。また、計時部808は、現在時刻を計時するものである。   The mode setting unit 807 sets an image data creation mode so that the image control unit 806 can perform appropriate image data creation processing. The time measuring unit 808 measures the current time.

また、図1に示すように、画像制御部806は、表示領域決定部861、属性情報取得部862、関連情報処理部863および画像データ作成部864を備えている。   As illustrated in FIG. 1, the image control unit 806 includes a display area determination unit 861, an attribute information acquisition unit 862, a related information processing unit 863, and an image data creation unit 864.

表示領域決定部861は、記憶部901に格納された属性情報または関連情報処理部863で求められる対応情報(対応情報としての関連情報)を表示するために、像取得部801が取得した全体画像データにおける仮想領域を決定するものである。   The display area determination unit 861 displays the entire image acquired by the image acquisition unit 801 in order to display attribute information stored in the storage unit 901 or correspondence information obtained by the related information processing unit 863 (related information as correspondence information). A virtual area in data is determined.

属性情報取得部862は、各画像データ作成モードに応じて、各対象物の属性情報を取得するものである。   The attribute information acquisition unit 862 acquires attribute information of each object according to each image data creation mode.

関連情報処理部863は、各画像データ作成モードに応じて対応情報(関連情報)を求め、対応情報に対応したテンプレート画像を決定し、当該テンプレート画像と対象物(あるいは仮想領域)とを対応付けるものである。   The related information processing unit 863 obtains correspondence information (related information) according to each image data creation mode, determines a template image corresponding to the correspondence information, and associates the template image with the object (or virtual region). It is.

画像データ作成部864は、属性情報および/または対応情報(関連情報)を、像取得部801が取得した全体画像データに重畳させた画像データを作成し、当該画像データをセンサ内蔵液晶パネル301に表示させるものである。画像データ作成部864は、例えば対応情報に基づいて加工したテンプレート画像を、決定した仮想領域に重畳させた画像データを作成する。   The image data creation unit 864 creates image data in which attribute information and / or correspondence information (related information) is superimposed on the entire image data acquired by the image acquisition unit 801, and the image data is stored in the sensor built-in liquid crystal panel 301. It is what is displayed. For example, the image data creation unit 864 creates image data in which a template image processed based on the correspondence information is superimposed on the determined virtual region.

すなわち、画像制御部806は、特徴量抽出部802が特定した属性情報に対応する対応情報を、センサ内蔵液晶パネル301に対象物が載置された状態で表示させるものといえる。   That is, it can be said that the image control unit 806 displays the correspondence information corresponding to the attribute information specified by the feature amount extraction unit 802 in a state where the object is placed on the sensor built-in liquid crystal panel 301.

また、画像制御部806は、センサ内蔵液晶パネル301に複数の対象物が載置された場合、複数の対象物それぞれの属性情報に基づいて、当該対象物どうしの関連を示す関連情報を対応情報として表示させるものといえる。   Further, when a plurality of objects are placed on the sensor built-in liquid crystal panel 301, the image control unit 806 displays related information indicating the relationship between the objects based on attribute information of each of the plurality of objects. It can be said that it is displayed as.

なお、記憶部901には、主制御部800が実行する(1)各部の制御プログラム、(2)OSプログラム、(3)アプリケーションプログラム、および、(4)これらプログラムを実行するときに読み出す各種データを記録するものである。記憶部901は、フラッシュメモリなどの不揮発性の記憶装置によって構成される。本実施形態では、記憶部901は、例えば各対象物の属性情報が格納された属性情報テーブル、各種テンプレート画像、取得した全体画像データおよび座標データ、算出される関連情報などのデータが格納されるものである。また、以下の説明では、これらのデータを記憶部901に格納しているものとして説明するが、例えば全体画像データ、座標データなど、主制御部800の処理において一時的に格納されるものについては一次記憶部902に格納される構成であってもよい。   The storage unit 901 stores (1) a control program for each unit executed by the main control unit 800, (2) an OS program, (3) an application program, and (4) various data read when these programs are executed. Is to be recorded. The storage unit 901 is configured by a nonvolatile storage device such as a flash memory. In the present embodiment, the storage unit 901 stores, for example, an attribute information table in which attribute information of each object is stored, various template images, acquired whole image data and coordinate data, and calculated related information. Is. Further, in the following description, it is assumed that these data are stored in the storage unit 901. However, for example, all image data, coordinate data, and the like that are temporarily stored in the processing of the main control unit 800, for example. The structure stored in the primary storage part 902 may be sufficient.

〔データ表示/センサ装置における処理の流れ〕
次に、図9を参照しながら、データ表示/センサ装置100において、センサ内蔵液晶パネル301に対象物が載置された際の処理の流れについて説明する。図9は、データ表示/センサ装置100において、センサ内蔵液晶パネル301に対象物が載置された際の処理の流れを示すフローチャートである。なお、以下に示すコマンドの使用例は、あくまで一例であり、適宜フィールドの値を変更することが可能である。
[Data display / processing flow in sensor device]
Next, the flow of processing when an object is placed on the sensor built-in liquid crystal panel 301 in the data display / sensor device 100 will be described with reference to FIG. FIG. 9 is a flowchart showing a processing flow when an object is placed on the sensor built-in liquid crystal panel 301 in the data display / sensor device 100. Note that the command usage example shown below is merely an example, and the field value can be changed as appropriate.

なお、ここでは主に、服用品が対象物として載置された場合(すなわち、品名、品番などの文字または記号の認識を行う場合)のデータ表示/センサ装置100における処理の流れについて説明する。   Here, mainly the flow of processing in the data display / sensor device 100 when clothing is placed as an object (that is, when characters or symbols such as product names and product numbers are recognized) will be described.

まず、服用品の対象物がセンサ内蔵液晶パネル301上に載置されると、当該センサ内蔵液晶パネル301は、載置された対象物の像を検知する。センサ内蔵液晶パネル301が検知した像は、回路制御部600を介してデータ処理部700を送信される。そして、主制御部800の像取得部801は、データ処理部700に送信されてきた像のデータを全体画像データとして取得する。また、像取得部801は、全体画像データを取得するときに、全体画像データに含まれる各像の位置のデータを座標データとして取得する。すなわち、像取得部801は、センサ内蔵液晶パネル301が検知した像と、当該像の位置とを取得する(S1)。   First, when a clothing object is placed on the sensor-equipped liquid crystal panel 301, the sensor-equipped liquid crystal panel 301 detects an image of the placed object. The image detected by the sensor built-in liquid crystal panel 301 is transmitted to the data processing unit 700 via the circuit control unit 600. The image acquisition unit 801 of the main control unit 800 acquires image data transmitted to the data processing unit 700 as entire image data. Further, when acquiring the entire image data, the image acquisition unit 801 acquires the position data of each image included in the entire image data as coordinate data. That is, the image acquisition unit 801 acquires the image detected by the sensor built-in liquid crystal panel 301 and the position of the image (S1).

このとき、像取得部8301は、センサ内蔵液晶パネル301が対象物の像を検知することができるように、「スキャン方式」フィールドの値として“反射”(“00”)、“透過”(“01”)、“反射/透過”(“10”)のいずれか、「スキャン画像階調」フィールドの値として“2値”(“00”)、“多値”(“01”)のいずれか、「スキャン解像度」フィールドの値として“2値”(“00”)、“多値”(“01”)のいずれか、「スキャンパネル」フィールドの値として“第1表示/光センサ部”(“001”)を指定したコマンドを、データ処理部700に送信する。   At this time, the image acquisition unit 8301 uses “reflection” (“00”), “transmission” (“” as the value of the “scan method” field so that the sensor built-in liquid crystal panel 301 can detect the image of the object. 01 ”),“ Reflection / Transmission ”(“ 10 ”), or“ Binary ”(“ 00 ”) or“ Multivalue ”(“ 01 ”) as the value of the“ Scanned Image Tone ”field , One of “binary” (“00”) and “multi-value” (“01”) as the value of the “scan resolution” field, and “first display / light sensor section” (as the value of the “scan panel” field) A command designating “001”) is transmitted to the data processing unit 700.

また、像取得部801は、センサ内蔵液晶パネル301上で変化があったときの全体画像データをデータ処理部700から取得するために、「データ取得タイミング」フィールドの値として“イベント”(“01”)、「データ種別」フィールドの値として“全体画像”(“100”)を指定したコマンドを、データ処理部700に送信する。   Further, the image acquisition unit 801 acquires “event” (“01” as the value of the “data acquisition timing” field in order to acquire the entire image data when there is a change on the sensor built-in liquid crystal panel 301 from the data processing unit 700. "), A command designating" whole image "(" 100 ") as the value of the" data type "field is transmitted to the data processing unit 700.

さらに、像取得部801は、全体画像データに含まれる各像の座標データをデータ処理部700から取得するために、「データ取得タイミング」フィールドの値として“イベント”(“01”)、「データ種別」フィールドの値として“座標”(“100”)を指定したコマンドを、データ処理部700に送信する。この場合、「データ取得タイミング」フィールドの値としては、“全体画像”および“座標”をあわせた“101”を指定したコマンドを、データ処理部700に送信する。   Further, the image acquisition unit 801 acquires “event” (“01”), “data” as the value of the “data acquisition timing” field in order to acquire the coordinate data of each image included in the entire image data from the data processing unit 700. A command specifying “coordinate” (“100”) as the value of the “type” field is transmitted to the data processing unit 700. In this case, as the value of the “data acquisition timing” field, a command specifying “101” including “entire image” and “coordinates” is transmitted to the data processing unit 700.

なお、像取得部801が全体画像データの代わりに部分画像データを取得する場合には、「データ取得タイミング」フィールドの値として“イベント”(“01”)、「データ種別」フィールドの値として“部分画像”(“010”)を指定したコマンドを、データ処理部700に送信する。   When the image acquisition unit 801 acquires partial image data instead of the entire image data, “event” (“01”) is set as the “data acquisition timing” field value, and “data type” field is set to “value”. A command designating “partial image” (“010”) is transmitted to the data processing unit 700.

像取得部801は、取得した全体画像データを特徴量抽出部802に送信する。特徴量抽出部802は、この全体画像データに含まれる像の特徴量を抽出する(S2)。ここで、特徴量抽出部802における特徴抽出は、一般的な画像認識技術(文字認識技術)により行われるものである。   The image acquisition unit 801 transmits the acquired entire image data to the feature amount extraction unit 802. The feature amount extraction unit 802 extracts the feature amount of the image included in the entire image data (S2). Here, the feature extraction in the feature amount extraction unit 802 is performed by a general image recognition technique (character recognition technique).

すなわち、特徴量抽出部802は、ノイズ除去、平滑化、鮮鋭化、フィルタリング処理、画像の2値化、像の骨格線を抽出する細線化操作、正規化操作等と呼ばれる、全体画像データに対する画像補正を行う。そして、特徴量抽出部802は、画像補正を行った全体画像データから、像の特徴量を抽出する。像の特徴量を抽出する手法として、エッジ、輪郭および線成分を抽出する方法(2次微分処理、ハフ変換処理等)、領域分割による方法、テクスチャを抽出する方法などが挙げられる。   That is, the feature amount extraction unit 802 performs image removal on whole image data called noise removal, smoothing, sharpening, filtering processing, image binarization, thinning operation for extracting skeleton lines of an image, normalization operation, and the like. Make corrections. Then, the feature amount extraction unit 802 extracts the feature amount of the image from the entire image data subjected to the image correction. As a method for extracting the feature amount of the image, a method for extracting edges, contours, and line components (secondary differential processing, Hough transform processing, etc.), a method by region division, a method for extracting texture, and the like can be mentioned.

特徴量抽出部802は、上記処理を行うことによって像の特徴量を抽出すると、当該特徴量を種別/文字認識部803に送信する。種別/文字認識部803は、上記像の特徴量を受信すると、記憶部901に格納された複数の標準パターンを読み出す。そして、種別/文字認識部803は、上記像の特徴量と複数の標準パターンとを比較することにより、当該像の特徴量が、何れの標準パターンと最もよく類似しているのかを判定する。すなわち、種別/文字認識部803は、上記の判定を行うことにより、センサ内蔵液晶パネル301上に対象物の種別、または、対象物に印字された文字、記号などの認識を行う(S3)。なお、種別/文字認識部803は、上記判定を行うために、一般的な画像認識技術(文字認識技術)に用いられる手法であるパターンマッチング手法、統計的識別手法等を用いた処理を行うものとする。   When the feature amount extraction unit 802 extracts the feature amount of the image by performing the above processing, the feature amount extraction unit 802 transmits the feature amount to the type / character recognition unit 803. Upon receiving the image feature amount, the type / character recognition unit 803 reads a plurality of standard patterns stored in the storage unit 901. Then, the type / character recognition unit 803 compares the feature quantity of the image with a plurality of standard patterns to determine which standard pattern is most similar to the feature quantity of the image. That is, the type / character recognizing unit 803 recognizes the type of the object on the sensor built-in liquid crystal panel 301 or the characters and symbols printed on the object by performing the above determination (S3). The type / character recognition unit 803 performs processing using a pattern matching method, a statistical identification method, or the like, which is a method used in a general image recognition technology (character recognition technology), in order to perform the above determination. And

また、上記標準パターンとしては、指、ペンなどを示すパターン、文字、記号などを示すパターン(すなわち、辞書)、特殊な形状(例えばビス、ナット、ビーズ、種など)を認識するためのパターンなどが挙げられる。   In addition, as the standard pattern, a pattern indicating a finger, a pen, a pattern indicating a character, a symbol, or the like (that is, a dictionary), a pattern for recognizing a special shape (such as a screw, a nut, a bead, or a seed) Is mentioned.

ここで、センサ内蔵液晶パネル301上に対象物として服用品が載置された場合、種別/文字認識部803は、品名または品番が印字されているため、これらに含まれる文字または記号のそれぞれが、文字、記号などを示す標準パターンのうち、何れの標準パターンと最もよく類似するのかを判定する。すなわち、種別/文字認識部803は、品名または品番を示す文字または記号それぞれに最もよく類似した標準パターンを特定する。   Here, when clothing is placed as an object on the sensor built-in liquid crystal panel 301, the type / character recognition unit 803 has a product name or product number printed thereon. It is determined which of the standard patterns indicating characters, symbols, etc. is most similar to the standard pattern. That is, the type / character recognition unit 803 specifies a standard pattern that is most similar to each character or symbol indicating the product name or product number.

このとき、種別/文字認識部803は、各文字または各記号と最もよく類似した標準パターンを特定すると、各文字または各記号が含まれる像ごとに、特定した標準パターンを文字列として属性情報特定部804に送信する。すなわち、種別/文字認識部803は、像取得部801が取得した像の位置と、像ごとに特定した文字列とを対応付けた取得情報を、属性情報特定部804に送信する。   At this time, when the type / character recognition unit 803 specifies a standard pattern that is most similar to each character or each symbol, the attribute information is specified as a character string for each image including each character or each symbol. To the unit 804. That is, the type / character recognition unit 803 transmits acquisition information in which the position of the image acquired by the image acquisition unit 801 is associated with the character string specified for each image to the attribute information specifying unit 804.

属性情報特定部804は、種別/文字認識部803から取得情報を受信すると、記憶部901に格納された属性情報テーブル(後述)を検索する(S4)。そして、属性情報特定部804は、属性情報テーブルの中に、取得情報に示される文字列と一致する「品名」または「品番」をもつ属性情報が存在するか否かを判定する(S5)。   Upon receiving the acquired information from the type / character recognition unit 803, the attribute information specifying unit 804 searches an attribute information table (described later) stored in the storage unit 901 (S4). Then, the attribute information specifying unit 804 determines whether or not attribute information having “product name” or “product number” that matches the character string indicated in the acquired information exists in the attribute information table (S5).

属性情報特定部804は、文字列と一致する「品名」または「品番」をもつ属性情報が存在すると判定した場合(S5でYES)、各像に対応した属性情報を特定する(S6)。また、属性情報特定部804は、各像に対応した属性情報を特定すると、取得情報に示される像の位置を、属性情報テーブルにおける当該属性情報の「位置」に書き込む。すなわち、属性情報特定部804は、特定された属性情報と、当該属性情報に対応する像の位置との対応付けを行う(S7)。   If it is determined that there is attribute information having “product name” or “product number” that matches the character string (YES in S5), the attribute information specifying unit 804 specifies attribute information corresponding to each image (S6). Further, when the attribute information specifying unit 804 specifies the attribute information corresponding to each image, the attribute information specifying unit 804 writes the position of the image indicated in the acquired information in the “position” of the attribute information in the attribute information table. That is, the attribute information specifying unit 804 associates the specified attribute information with the position of the image corresponding to the attribute information (S7).

属性情報特定部804は、特定した属性情報と、当該属性情報に対応する像の位置との対応付けを行うと、当該対応付けが完了したことを示す完了通知および各像の位置のデータを、画像制御部806に送信する。画像制御部806は、完了通知を受信すると、画像データ作成処理を行い(S8)、当該処理で作成された画像データを表示データとしてデータ処理部700に送信する。これにより、画像制御部806により作成された画像が、センサ内蔵液晶パネル301に表示されることとなる。なお、この画像データ作成処理の具体例については、後述する。   When the attribute information specifying unit 804 associates the specified attribute information with the position of the image corresponding to the attribute information, the attribute information specifying unit 804 sends a completion notification indicating that the association is completed and data on the position of each image. The image is transmitted to the image control unit 806. Upon receiving the completion notification, the image control unit 806 performs image data creation processing (S8), and transmits the image data created by the processing to the data processing unit 700 as display data. As a result, the image created by the image control unit 806 is displayed on the sensor built-in liquid crystal panel 301. A specific example of this image data creation process will be described later.

なお、画像制御部806は、作成した画像データをセンサ内蔵液晶パネル301に表示させるために、「表示パネル」フィールドの値として“第1表示/光センサ部”(“001”)を指定したコマンドを、データ処理部700に送信する。   Note that the image control unit 806 is a command that designates “first display / light sensor unit” (“001”) as the value of the “display panel” field in order to display the created image data on the sensor built-in liquid crystal panel 301. Is transmitted to the data processing unit 700.

一方、属性情報特定部804は、文字列と一致する「品名」または「品番」をもつ属性情報が存在しないと判定した場合(S5でNO)、各像に対応した属性情報を特定するために、各文字列に対応した属性情報をネットワーク上から取得する(S9)。   On the other hand, when it is determined that there is no attribute information having “product name” or “product number” that matches the character string (NO in S5), the attribute information specifying unit 804 specifies attribute information corresponding to each image. The attribute information corresponding to each character string is acquired from the network (S9).

具体的には、属性情報特定部804は、記憶部901に属性情報が存在しないと判断した文字列(服用品)の属性情報の取得命令を、図4に示す外部通信部907に送信する。外部通信部907は、取得命令を受信すると、上記文字列の属性情報を検索するために、無線/有線通信によってネットワーク上の外部装置(例えば属性情報を管理するサーバ)と通信を行う。   Specifically, the attribute information specifying unit 804 transmits an instruction to acquire attribute information of a character string (clothes) determined to have no attribute information in the storage unit 901 to the external communication unit 907 illustrated in FIG. When receiving the acquisition command, the external communication unit 907 communicates with an external device (for example, a server that manages attribute information) on the network by wireless / wired communication in order to search for the attribute information of the character string.

外部通信部907は、上記文字列の属性情報を取得すると、当該属性情報を属性情報特定部804に送信する。そして、属性情報特定部804は、受信した属性情報を属性情報テーブルに追記することにより、当該属性情報を記憶部901に格納する(S10)。属性情報特定部804は、属性情報を記憶部901に格納すると、S9の処理に移行する。   When the external communication unit 907 acquires the attribute information of the character string, the external communication unit 907 transmits the attribute information to the attribute information specifying unit 804. Then, the attribute information specifying unit 804 stores the attribute information in the storage unit 901 by adding the received attribute information to the attribute information table (S10). When the attribute information specifying unit 804 stores the attribute information in the storage unit 901, the attribute information specifying unit 804 proceeds to the process of S9.

なお、上記の処理では、属性情報特定部804は、センサ内蔵液晶パネル301上に載置された対象物の像の位置を、属性情報テーブルの当該対象物に対応する「位置」に書き込み、各像の位置を画像制御部806に送信している。これにより、画像制御部806が像の位置と、上記「位置」に書き込まれた位置情報とを比較することにより、各像に対応する属性情報を適切に取得することができる。しかし、この処理は一例であり、画像制御部806が各像に対応する属性情報を適切に取得することが可能であれば、どのような情報を用いてもよい。   In the above process, the attribute information specifying unit 804 writes the position of the image of the object placed on the sensor built-in liquid crystal panel 301 in the “position” corresponding to the object in the attribute information table. The position of the image is transmitted to the image control unit 806. Accordingly, the image control unit 806 can appropriately acquire attribute information corresponding to each image by comparing the position of the image with the position information written in the “position”. However, this process is an example, and any information may be used as long as the image control unit 806 can appropriately acquire attribute information corresponding to each image.

以上のように、データ表示/センサ装置100は、画像を表示するとともに、近傍の対象物の像を検知するセンサ内蔵液晶パネル301と、センサ内蔵液晶パネル301が検知した像の特徴量を抽出する特徴量抽出部802と、特徴量抽出部802が抽出した像の特徴量に基づいて、対象物の属性情報を特定する属性情報特定部804と、属性情報特定部804が特定した属性情報に対応する対応情報を、センサ内蔵液晶パネル301に対象物が載置された状態で表示させる画像制御部806と、を備える構成である。   As described above, the data display / sensor device 100 displays an image and extracts a sensor built-in liquid crystal panel 301 that detects an image of a nearby object, and a feature amount of the image detected by the sensor built-in liquid crystal panel 301. Corresponds to the feature amount extraction unit 802, the attribute information specification unit 804 for specifying the attribute information of the object based on the feature amount of the image extracted by the feature amount extraction unit 802, and the attribute information specified by the attribute information specification unit 804 And an image control unit 806 for displaying the corresponding information in a state where the object is placed on the sensor-equipped liquid crystal panel 301.

これにより、データ表示/センサ装置100は、ユーザに入力操作を行わせずに(すなわち、ユーザの感覚的な操作によって)、センサ内蔵液晶パネル301に載置された対象物を用いて、当該対象物に応じた情報を容易に表示させることができる。そして、ユーザは、センサ内蔵液晶パネル301に情報を得たい対象物を載置するだけで、当該対象物に応じた情報を容易に確認することができる。   Thereby, the data display / sensor device 100 uses the object placed on the sensor built-in liquid crystal panel 301 without performing the input operation on the user (that is, by the user's sensory operation). Information according to the object can be easily displayed. The user can easily confirm information corresponding to the target object simply by placing the target object on which information is desired to be placed on the sensor built-in liquid crystal panel 301.

また、データ表示/センサ装置100では、センサ内蔵液晶パネル301が複数の対象物の像を検知した場合、画像制御部806は、複数の対象物それぞれの属性情報に基づいて、当該対象物どうしの関連を示す関連情報を対応情報として表示させる構成である。これにより、ユーザは、センサ内蔵液晶パネル301に複数の対象物を載置するだけで、当該対象物どうしの関連を示す関連情報を容易に確認することができる。   In the data display / sensor device 100, when the sensor built-in liquid crystal panel 301 detects images of a plurality of objects, the image control unit 806 determines whether the objects are based on the attribute information of each of the objects. In this configuration, related information indicating the relationship is displayed as correspondence information. As a result, the user can easily confirm the related information indicating the relationship between the objects only by placing a plurality of objects on the sensor built-in liquid crystal panel 301.

特に、データ表示/センサ装置100は、対象物が服用品である場合には、種類の常備薬を所持するユーザに対して、例えば服用すべき常備薬など、ユーザにとって必要となる情報を手軽に確認させることができる。また、ユーザは、載置した服用品が服用可能(服用すべき)であると判断した服用品をセンサ内蔵液晶パネル301から取り上げて、そのまま服用することができる。このため、データ表示/センサ装置100は、ユーザが、服用品を取り違えて服用することを未然に防止することができる。   In particular, the data display / sensor device 100 makes it easy for a user possessing a type of common medicine to easily check information necessary for the user, such as a common medicine to be taken, when the object is a clothing item. be able to. In addition, the user can pick up clothes from the sensor-equipped liquid crystal panel 301 and determine that the placed clothes can be taken (should be taken) and take them as they are. For this reason, the data display / sensor device 100 can prevent the user from mistaking and taking clothes.

〔属性情報テーブル〕
次に、図10を参照しながら、主制御部800において用いられる、記憶部901に格納された属性情報テーブルについて説明する。図10は、主制御部800において参照される、記憶部901に格納された属性情報テーブルを示す図である。
[Attribute information table]
Next, the attribute information table stored in the storage unit 901 used in the main control unit 800 will be described with reference to FIG. FIG. 10 is a diagram showing an attribute information table stored in the storage unit 901 and referred to in the main control unit 800.

属性情報テーブルには、図示のように、「品名」、「品番」、「効能」、「飲み合わせ不可品名」、「服用日」、「時間帯」、「賞味期限」および「成分量」を示す情報が格納される。なお、属性情報テーブル内の「品名」または「品番」に対応する「効能」などの情報を属性情報と称する。また、これらの情報は、予め記憶部901に格納されているものであるが、これに限らず、上述のように、属性情報特定部804が外部通信部907を介してネットワーク上から取得したものであってもよい。   In the attribute information table, as shown in the figure, “Product Name”, “Product Number”, “Efficacy”, “Non-drinkable Product Name”, “Dosage Date”, “Time Zone”, “Expiration Date”, and “Ingredient Amount” are displayed. Information to be stored is stored. Information such as “efficiency” corresponding to “product name” or “product number” in the attribute information table is referred to as attribute information. These pieces of information are stored in the storage unit 901 in advance. However, the present invention is not limited to this, and the information acquired by the attribute information specifying unit 804 from the network via the external communication unit 907 as described above. It may be.

「品名」には、服用品の品名を示す文字情報(品名情報)が格納される。   In the “product name”, character information (product name information) indicating the product name of the clothing is stored.

「品番」には、服用品のそれぞれに付される製造番号を示す記号、数値などの情報(品番情報)が格納される。   The “product number” stores information (product number information) such as a symbol and a numerical value indicating a production number assigned to each clothing item.

「効能」には、各服用品の効能を示す文字情報(効能情報)が格納される。例えば図10のように、各効能に対して、「コードn」(n=1、2、…)のような簡素な情報を格納しておき、属性情報テーブルとは異なるテーブルにて、各コードに対応する文字情報が格納されていてもよい。   “Effectiveness” stores character information (efficacy information) indicating the efficacy of each clothing item. For example, as shown in FIG. 10, simple information such as “code n” (n = 1, 2,...) Is stored for each effect, and each code is stored in a table different from the attribute information table. The character information corresponding to may be stored.

例えば、コード1は「ガロイン:胃がもたれる、はきけがする等の胃の諸症状に効果を発揮する健胃・消化薬です」、コード2は「EC10:ビタミンE・C・B2、コエンザイムQ10を1つに集約した栄養機能食品」、コード3は「フェイチ100:効果的にヘモグロビンを造り貧血を改善する鉄剤です」とした文字情報に対応付けられている。   For example, Code 1 is “Garoin: a healthy stomach / digestive drug that is effective for various stomach symptoms such as stomach upset and scalding”, Code 2 is “EC10: Vitamin E · C · B2, Coenzyme Q10 The code 3 is associated with character information such as “Fetish 100: an iron preparation that effectively produces hemoglobin and improves anemia”.

「飲み合わせ不可品名」には、同時に飲み合わせてはいけない(または飲み合わせない方が好ましい)服用品を示す文字情報が飲み合わせ不可情報として格納されている。図10では、例えばEC10と飲み合わせ不可能な服用品がフェイチ100であることが示されている。なお、飲み合わせ不可能な服用品がない場合には、「飲み合わせ不可用品」に例えば「Null」(図10では「−」で示す)の値が格納されていてもよい。また、この場合、「飲み合わせ不可用品」以外においても、属性情報テーブルの「−」には、「飲み合わせ不可用品」と同様に「NUll」の値が格納されていてもよい。   Character information indicating clothes that should not be swallowed at the same time (or preferably not swallowed) is stored in the “unswallowable product name” as non-swallowable information. In FIG. 10, for example, it is shown that the clothes that cannot be swallowed with the EC 10 are the fetish 100. When there are no clothes that cannot be swallowed, for example, a value of “Null” (indicated by “−” in FIG. 10) may be stored in “unswallowable goods”. In this case, the value “NUll” may be stored in “−” of the attribute information table other than “non-drinkable items” as in the case of “non-drinkable items”.

「服用日」には、服用品が支給されたとき(または、像取得部801が全体画像データを取得したとき)からの日数を示す数値情報(服用日情報)が格納される。画像制御部806では、この数値情報に基づいて、服用すべき曜日を算出することができる。   In the “taking day”, numerical information (dosing day information) indicating the number of days from when the article is supplied (or when the image acquisition unit 801 acquires the entire image data) is stored. The image control unit 806 can calculate the day of the week to be taken based on this numerical information.

「時間帯」には、服用品を服用するのに適した時間帯を示す文字情報(時間帯情報)が格納される。図10では、例えばガロインの「時間帯」に示される文字情報として「食後毎」が示されている。なお、「時間帯」の文字情報としては、例えば「食後毎」、「朝食前」、「夕食前」、「食間」などが挙げられ、これらの情報に対応する時間情報(例えば「朝食前」に対応する時間情報として「午前6時〜午前7時」を示す情報)が対応付けて格納されている。   In the “time zone”, character information (time zone information) indicating a time zone suitable for taking clothes is stored. In FIG. 10, for example, “every meal” is shown as the character information shown in the “time zone” of galloin. The text information of “time zone” includes, for example, “after every meal”, “before breakfast”, “before dinner”, “between meals”, etc., and time information corresponding to these information (for example, “before breakfast”). (Information indicating “6 am to 7 am”) is stored in association with each other as time information corresponding to.

「賞味期限」には、服用品の賞味期限の日時を示す情報(期限情報)が格納される。なお、「賞味期限」の代わりに製造日時を示す情報が格納され、必要に応じて、主制御部800が賞味期限を算出する構成であってもよい。   The “expiration date” stores information (date information) indicating the date and time of the expiration date of the clothes. Note that information indicating the manufacturing date and time may be stored instead of the “best before date”, and the main control unit 800 may calculate the best before date as necessary.

「成分量」は、服用品の成分量を示す数値情報(成分情報)が成分ごとに格納される。図10では、成分としてカルシウム、ビタミンCおよび鉄分の1粒あたりの重量(mg)が格納されているが、これに限らず、様々な成分の成分量が格納されてもよい。   In the “component amount”, numerical information (component information) indicating the component amount of the clothing is stored for each component. In FIG. 10, the weight (mg) per grain of calcium, vitamin C, and iron is stored as the component, but the present invention is not limited to this, and component amounts of various components may be stored.

さらに、属性情報テーブルには「位置」を示す情報が格納される。「位置」には、属性情報特定部804が特定した属性情報に対応する像の位置を書き込むことにより、当該像の位置を示す位置情報(すなわち、座標データ)が格納される。   Furthermore, information indicating “position” is stored in the attribute information table. In “position”, position information (that is, coordinate data) indicating the position of the image is stored by writing the position of the image corresponding to the attribute information specified by the attribute information specifying unit 804.

〔画像データ作成処理(飲み合わせの相互関係を示すときの表示処理)〕
次に、図11から図20を参照しながら、画像データ作成処理、および、その結果としてセンサ内蔵液晶パネル301に表示される画像の具体例について説明する。なお、図12(b)、図14(b)、図16(b)、図18(b)および図20(b)では、センサ内蔵液晶パネル301に服用品(または包装された状態の服用品)が載置され、その状態で(すなわち実物が載置された状態で)、画像データ作成処理の結果が表示されているものとする。
[Image data creation process (display process when showing the mutual relationship of drinking)]
Next, a specific example of the image data creation process and the resulting image displayed on the sensor built-in liquid crystal panel 301 will be described with reference to FIGS. In addition, in FIG.12 (b), FIG.14 (b), FIG.16 (b), FIG.18 (b), and FIG.20 (b), it is clothing (or the clothing of the state packaged in the sensor-equipped liquid crystal panel 301). ) And the result of the image data creation process is displayed in that state (that is, in a state where the actual object is placed).

まず、図11および図12を参照しながら、飲み合わせの相互関係を示すときの表示処理としての画像データ作成処理について説明する。図11は、飲み合わせの相互関係を示すときの表示処理としての画像データ作成処理を示すフローチャートであり、図12(a)は、当該画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図12(b)は、当該画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネル301に表示されたときの表示例を示す図である。   First, an image data creation process as a display process when showing the mutual relationship of drinking will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart showing an image data creation process as a display process when showing a mutual relationship of drinking, and FIG. 12A shows a virtual area specified when the image data creation process is executed. FIG. 12B is a diagram illustrating a display example when an image as a result of the execution of the image data creation process is displayed on the sensor built-in liquid crystal panel 301.

まず、図9に示すS3において、種別/文字認識部803が、対象物の文字または記号を認識すると(すなわち、対象物が服用品であると判断すると)、モード設定部807に文字認識通知を送信する。モード設定部807は、文字認識通知を受信すると、画像制御部806が適切な画像データ作成処理を行うことが可能なように、画像データ作成モード(以下では単にモードとする)を設定する。   First, in S3 shown in FIG. 9, when the type / character recognizing unit 803 recognizes a character or symbol of an object (that is, if the object is determined to be clothing), a character recognition notification is sent to the mode setting unit 807. Send. Upon receiving the character recognition notification, the mode setting unit 807 sets an image data creation mode (hereinafter simply referred to as a mode) so that the image control unit 806 can perform appropriate image data creation processing.

モード設定部807におけるモード設定処理方法としては、例えば文字認識通知と共に取得情報を受信し、当該取得情報に示される像の位置からどのモードに設定するかを決定することが挙げられる。この他、センサ内蔵液晶パネル301例えば載置された対象物の像の形状および/または個数、予め設定された領域への対象物の載置などを判断してモードを設定したり、モードを問い合わせるための問い合わせ画像を画像制御部806に作成させ、当該問い合わせ画像をセンサ内蔵液晶パネル301に表示させて、ユーザにモードを選択させてもよい。   As a mode setting processing method in the mode setting unit 807, for example, acquisition information is received together with a character recognition notification, and a mode to be set is determined from an image position indicated in the acquisition information. In addition to this, the sensor built-in liquid crystal panel 301, for example, the shape and / or number of images of the placed object, the placement of the object in a preset area, etc. is determined to set the mode or inquire about the mode. Inquiry images for this purpose may be created in the image control unit 806, and the inquiry images may be displayed on the sensor built-in liquid crystal panel 301 to allow the user to select a mode.

ここでは、モード設定部807は、飲み合わせの相互関係を示すときの表示処理を示す飲み合わせ表示モードに設定するものとする。   Here, it is assumed that the mode setting unit 807 sets to a drinking display mode indicating display processing when showing a mutual relationship of drinking.

次に、画像制御部806の表示領域決定部861は、完了通知を受信すると、図9に示すS1で取得された全体画像データを記憶部901から取得すると共に、モード設定部807で設定された、飲み合わせ表示モードを示すモード情報を取得する。なお、ここでは、像取得部801が取得した全体画像データが記憶部901に格納されているものとして説明するが、これに限らず、像取得部801(または主制御部800)内に一時的に格納されていてもよい。また、座標データおよび部分画像データについても同様である。   Next, when receiving the completion notification, the display area determination unit 861 of the image control unit 806 acquires the entire image data acquired in S1 shown in FIG. 9 from the storage unit 901 and is set by the mode setting unit 807. The mode information indicating the drinking display mode is acquired. Here, the description will be made assuming that the entire image data acquired by the image acquisition unit 801 is stored in the storage unit 901. However, the present invention is not limited to this, and is temporarily stored in the image acquisition unit 801 (or the main control unit 800). May be stored. The same applies to coordinate data and partial image data.

表示領域決定部861は、飲み合わせ表示モードに対応した各服用品の属性情報(ここでは効能情報)および服用品どうしの関係を示す関連情報(ここでは飲み合わせ情報)を表示するための全体画像データにおける仮想領域を決定する。すなわち、表示領域決定部861は、図12(a)に示すように、像(図12(a)に示す斜線部)と重ならない領域を、効能情報および関連情報を表示するための仮想領域として決定する(S21)。   The display area determination unit 861 displays an entire image for displaying attribute information (in this case, efficacy information) of each clothing corresponding to the drinking display mode and related information (here, drinking information) indicating the relationship between the clothing. Determine the virtual region in the data. That is, as shown in FIG. 12A, the display area determining unit 861 uses an area that does not overlap the image (the shaded area shown in FIG. 12A) as a virtual area for displaying the efficacy information and the related information. Determine (S21).

表示領域決定部861は、効能情報を像(服用品)の近傍に表示させるために、例えば各像の位置(属性情報テーブルに書き込まれた各服用品の位置情報)から所定の距離(像と重ならない程度の距離)だけ離れた位置に、仮想領域としての矩形領域Q1、Q2およびQ3をそれぞれ決定する。また、表示領域決定部861は、対応情報としての関連情報を各像の間に表示させるために、例えば各像を結ぶ線分を算出し、像と重ならない当該線分を含む位置に、仮想領域としての矩形領域P1、P2およびP3をそれぞれ決定する。   In order to display the efficacy information in the vicinity of the image (clothes), the display area determination unit 861 is, for example, a predetermined distance (image and clothing) from the position of each image (position information of each clothing written in the attribute information table). The rectangular areas Q1, Q2, and Q3 are determined as virtual areas at positions separated by a distance that does not overlap. Further, in order to display the related information as the correspondence information between the images, the display area determination unit 861 calculates, for example, a line segment connecting the images, and displays a virtual segment at a position including the line segment that does not overlap the image. The rectangular areas P1, P2 and P3 are determined as areas.

次に、表示領域決定部861は、全体画像データにおける仮想領域を決定すると、領域決定通知を属性情報取得部862に送信し、決定した仮想領域の位置情報(例えば各仮想領域の全体画像データにおける4隅の座標)を、各服用品、または、線分を算出したときの2つの像(服用品)ごとに対応付けて記憶部901に格納する。   Next, when the display area determination unit 861 determines a virtual area in the entire image data, the display area determination unit 861 transmits an area determination notification to the attribute information acquisition unit 862, and position information of the determined virtual area (for example, in the entire image data of each virtual area) The coordinates of the four corners) are stored in the storage unit 901 in association with each clothing item or every two images (clothing items) when the line segment is calculated.

属性情報取得部862は、領域決定通知を受信すると、記憶部901の属性情報テーブルを参照することにより、飲み合わせ表示モードのときの属性情報、すなわち各服用品の効能情報および飲み合わせ不可情報を取得する(S22)。そして、属性情報取得部862は、効能情報を画像データ作成部864に送信し、飲み合わせ不可情報を関連情報処理部863に送信する。   When the attribute information acquisition unit 862 receives the region determination notification, the attribute information acquisition unit 862 refers to the attribute information table in the storage unit 901 to obtain the attribute information in the drinking display mode, that is, the efficacy information and non-drinking information of each clothing item. Obtain (S22). Then, the attribute information acquisition unit 862 transmits the efficacy information to the image data creation unit 864 and transmits the non-drinkable information to the related information processing unit 863.

関連情報処理部863は、飲み合わせ不可情報を受信すると、記憶部901の属性情報テーブルの「品名」を参照することにより、当該飲み合わせ不可情報と一致する服用品があるか否かを判定する(S23)。すなわち、関連情報処理部863は、属性情報テーブルを参照することにより、属性情報である飲み合わせ不可情報と品名情報とを比較することにより、各服用品の飲み合わせが可能または不可能であることを示す飲み合わせ情報を関連情報として求める。   When the related information processing unit 863 receives the non-drinking information, the related information processing unit 863 refers to the “product name” in the attribute information table of the storage unit 901 to determine whether there is any clothing that matches the non-drinking information. (S23). That is, the related information processing unit 863 refers to the attribute information table, and compares the non-swallowable information that is the attribute information with the product name information, thereby allowing or not allowing each clothing item to be swallowed. Requiring drinking information indicating that as related information.

具体的には、関連情報処理部863は、飲み合わせ不可情報と一致する服用品があると判定した場合(S23でYES)、服用品どうしの飲み合わせが不可能であることを示す飲み合わせ情報として、記憶部901に格納された仮想領域と飲み合わせ不可を示すテンプレート画像とを対応付ける(S24)。一方、関連情報処理部863は、飲み合わせ不可情報と一致する服用品がないと判定した場合(S23でNO)、服用品どうしの飲み合わせが可能であることを示す飲み合わせ情報として、記憶部901に格納された仮想領域と飲み合わせ可を示すテンプレート画像とを対応付ける(S25)。関連情報処理部863は、各仮想領域とテンプレート画像との対応付けが完了すると、対応付け完了通知を画像データ作成部864に送信する。   Specifically, when the related information processing unit 863 determines that there is a clothing item that matches the non-drinking information (YES in S23), the drinking information indicating that it is impossible to swallow the clothing items together. As a result, the virtual area stored in the storage unit 901 is associated with the template image indicating that drinking is impossible (S24). On the other hand, if the related information processing unit 863 determines that there is no clothing that matches the non-drinking information (NO in S23), the storage unit displays the drinking information indicating that the clothing can be swallowed. The virtual area stored in 901 is associated with a template image indicating that drinking is possible (S25). When the association between each virtual area and the template image is completed, the related information processing unit 863 transmits an association completion notification to the image data creation unit 864.

ここで、飲み合わせ可/不可を示すテンプレート画像とは、センサ内蔵液晶パネル301に画像が表示されたときに、ユーザが服用品どうしの飲み合わせが可能か不可能かを判断できるような画像であればよい。例えば、図12(b)に示すように、飲み合わせ可を示すテンプレート画像としては「○(線分を含む)」、飲み合わせ不可を示すテンプレート画像としては「×(線分を含む)」が挙げられる。   Here, the template image indicating whether or not drinking is possible is an image that allows the user to determine whether or not drinking between clothes is possible when the image is displayed on the sensor built-in liquid crystal panel 301. I just need it. For example, as shown in FIG. 12B, “◯ (including line segment)” is displayed as a template image indicating that drinking is possible, and “× (including line segment)” is displayed as a template image indicating that drinking is not possible. Can be mentioned.

画像データ作成部864は、対応付け完了通知を受信すると、記憶部901に格納された各仮想領域に対応付けられたテンプレート画像と全体画像データとを読み出し、各仮想領域の大きさにあわせてテンプレート画像の拡大/縮小を行う。そして、画像データ作成部864は、拡大/縮小処理が行われたテンプレート画像と効能情報とを、全体画像データの対応する仮想領域に重畳させることにより、センサ内蔵液晶パネル301に表示させる画像データを作成する(S26)。   When the image data creation unit 864 receives the notification of completion of association, the image data creation unit 864 reads the template image associated with each virtual area stored in the storage unit 901 and the entire image data, and matches the template according to the size of each virtual area. Enlarge / reduce the image. Then, the image data creation unit 864 superimposes the enlarged / reduced template image and the efficacy information on the corresponding virtual area of the entire image data, thereby generating image data to be displayed on the sensor built-in liquid crystal panel 301. Create (S26).

画像データ作成部864は、画像データを作成すると、表示データとしてデータ処理部700に送信することにより、図12(b)に示すように、当該画像データをセンサ内蔵液晶パネル301に表示させることができる。   When the image data creating unit 864 creates the image data, the image data creating unit 864 transmits the image data to the data processing unit 700 as display data, so that the image data is displayed on the sensor built-in liquid crystal panel 301 as shown in FIG. it can.

なお、上記では、画像制御部806は、飲み合わせの相互関係を示すときの表示処理としての画像データ作成処理を行うときに、各服用品の効能情報を表示する構成となっているが、これに限らず、効能情報を表示しない構成であってもよい。また、画像制御部806は、効能情報だけを表示させるように画像データ作成処理を行ってもよい。   In the above, the image control unit 806 is configured to display the efficacy information of each clothing item when performing image data creation processing as display processing when showing the mutual relationship of drinking. However, the present invention is not limited to this. Further, the image control unit 806 may perform image data creation processing so that only the efficacy information is displayed.

以上のように、データ表示/センサ装置100では、画像制御部806は、センサ内蔵液晶パネル301が像を検知したときの画像における当該像とは異なる領域に、対応情報(関連情報)を表示させる構成である。これにより、対応情報が文字、数値、記号を含む場合であっても、データ表示/センサ装置100は、載置された対象物に応じた情報をユーザが容易に把握できるような画像を表示することができるので、ユーザの利便性を向上させることができる。   As described above, in the data display / sensor device 100, the image control unit 806 displays the correspondence information (related information) in a region different from the image when the sensor built-in liquid crystal panel 301 detects the image. It is a configuration. Thereby, even if the correspondence information includes characters, numerical values, and symbols, the data display / sensor device 100 displays an image that allows the user to easily grasp information corresponding to the placed object. Therefore, user convenience can be improved.

〔画像データ作成処理(服用時間の順番を示すときの表示処理)〕
次に、図13および図14を参照しながら、服用時間の順番を示すときの表示処理としての画像データ作成処理について説明する。図13は、服用時間の順番を示すときの表示処理としての画像データ作成処理を示すフローチャートであり、図14(a)は、当該画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図14(b)は、当該画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネル301に表示されたときの表示例を示す図である。
[Image data creation processing (display processing when showing the order of taking time)]
Next, image data creation processing as display processing for indicating the order of taking time will be described with reference to FIGS. 13 and 14. FIG. 13 is a flowchart showing image data creation processing as display processing when the order of taking time is shown. FIG. 14A shows a virtual area specified when the image data creation processing is executed. FIG. 14B is a diagram showing a display example when an image as a result of executing the image data creation processing is displayed on the sensor built-in liquid crystal panel 301.

まず、モード設定部807は、文字認識通知を受信すると、画像制御部806が適切な画像データ作成処理を行うことが可能なように、服用時間の順番を示すときの表示処理を示す順番表示モードに設定するものとする。   First, when the mode setting unit 807 receives a character recognition notification, the mode display unit 807 displays an order display mode that indicates display processing when indicating the order of taking times so that the image control unit 806 can perform appropriate image data creation processing. Shall be set to

次に、画像制御部806の表示領域特定部861は、完了通知を受信すると、図9に示すS1で取得された全体画像データを記憶部901から取得すると共に、モード設定部807で設定された順番表示モードを示すモード情報を取得する。   Next, when receiving the completion notification, the display area specifying unit 861 of the image control unit 806 acquires the entire image data acquired in S1 illustrated in FIG. 9 from the storage unit 901 and is set by the mode setting unit 807. The mode information indicating the order display mode is acquired.

なお、画像制御部806は、モード設定部807が順番表示モードに設定した場合には、例えば図14(a)に示す仮想領域P4に服用品を載置するようにユーザに指示するためのメッセージをセンサ内蔵液晶パネル301に表示させてもよい。   Note that when the mode setting unit 807 sets the sequential display mode, the image control unit 806, for example, a message for instructing the user to place clothes on the virtual area P4 shown in FIG. May be displayed on the sensor built-in liquid crystal panel 301.

表示領域決定部861は、順番表示モードに対応した各服用品の属性情報(ここでは時間帯情報)および服用品どうしの関係を示す関連情報(ここでは順位情報)を表示するための全体画像データにおける仮想領域を決定する。すなわち、表示領域決定部861は、図14(a)に示すように、像(図14(a)に示す斜線部)と重ならない領域を、時間帯情報および関連情報を表示するための仮想領域として決定する(S41)。   The display area determining unit 861 displays entire image data for displaying attribute information (here, time zone information) of each clothing corresponding to the order display mode and related information (here, ranking information) indicating the relationship between the clothing. Determine the virtual region at. That is, as shown in FIG. 14A, the display area determining unit 861 displays an area that does not overlap with the image (the hatched portion shown in FIG. 14A) as a virtual area for displaying time zone information and related information. (S41).

表示領域決定部861は、時間帯情報(服用時間)を示す棒グラフを表示するために、仮想領域としての矩形領域P5を決定する。また、表示領域決定部861は、各服用品に対応する棒グラフを表示するために、例えば像の位置または像の個数に基づいて、矩形領域P51からP53を決定する。さらに、表示領域決定部861は、上記と同様に、服用すべき時間が早い服用品の順番を示す番号を表示するために、仮想領域としての矩形領域P6(P61からP63)を決定する。なお、矩形領域P5およびP6は、順番表示モードである場合には記憶部901に予め格納されていてもよい。   The display area determination unit 861 determines a rectangular area P5 as a virtual area in order to display a bar graph indicating time zone information (taking time). Further, the display area determining unit 861 determines the rectangular areas P51 to P53 based on, for example, the position of the image or the number of images in order to display the bar graph corresponding to each clothing item. Further, the display area determining unit 861 determines a rectangular area P6 (P61 to P63) as a virtual area in order to display a number indicating the order of clothes to be taken earlier in the same manner as described above. Note that the rectangular areas P5 and P6 may be stored in advance in the storage unit 901 in the order display mode.

次に、表示領域決定部861は、全体画像データにおける仮想領域を決定すると、領域決定通知を属性情報取得部862に送信し、決定した仮想領域としての矩形領域P51からP53、および、矩形領域P61からP63の各位置情報(例えば各仮想領域の全体画像データにおける4隅の座標)を、各服用品に対応付けて記憶部901に格納する。   Next, when the display area determination unit 861 determines a virtual area in the entire image data, the display area determination unit 861 transmits an area determination notification to the attribute information acquisition unit 862, and the rectangular areas P51 to P53 as the determined virtual area and the rectangular area P61. To P63 (for example, the coordinates of the four corners in the entire image data of each virtual area) are stored in the storage unit 901 in association with each clothing item.

属性情報取得部862は、領域決定通知を受信すると、記憶部901の属性情報テーブルを参照することにより、順番表示モードのときの属性情報、すなわち各服用品の時間帯情報を取得する(S42)。そして、属性情報取得部862は、時間帯情報を関連情報処理部863および画像データ作成部864に送信する。   When the attribute information acquisition unit 862 receives the area determination notification, the attribute information acquisition unit 862 refers to the attribute information table in the storage unit 901 to acquire the attribute information in the order display mode, that is, the time zone information of each clothing item (S42). . Then, the attribute information acquisition unit 862 transmits the time zone information to the related information processing unit 863 and the image data creation unit 864.

関連情報処理部863は、時間帯情報を受信すると、服用品を服用する順番を決定する(S43)。具体的には、関連情報処理部863は、時間帯情報を受信したときの計時部808から現在時刻を取得する。そして、関連情報処理部863は、各服用品の時間帯情報と現在時刻とを比較し、各服用品に対して現在時刻に近い順から若い番号を付与する。   When the related information processing unit 863 receives the time zone information, the related information processing unit 863 determines the order of taking the clothes (S43). Specifically, the related information processing unit 863 acquires the current time from the time measuring unit 808 when the time zone information is received. Then, the related information processing unit 863 compares the time zone information of each clothing item with the current time, and assigns a young number to each clothing item from the order close to the current time.

例えば現在時刻が午前6時である場合、フェイチ100(朝食前)、ガロイン(食後毎)、AR150(食間)の順番で服用される。従って、この場合には、関連情報処理部863は、フェイチ100に「1」、ガロインに「2」、AR150に「3」の順番を与える。そして、関連情報処理部863は、服用品を服用する順番を決定すると、順番決定通知を画像データ作成部864に送信する。   For example, when the current time is 6:00 am, the dose is taken in the order of fetish 100 (before breakfast), galloin (after each meal), and AR150 (between meals). Therefore, in this case, the related information processing unit 863 gives the order of “1” to the fetish 100, “2” to the galloin, and “3” to the AR 150. Then, when the related information processing unit 863 determines the order of taking clothes, the related information processing unit 863 transmits an order determination notification to the image data creation unit 864.

画像データ作成部864は、順番決定通知を受信すると、記憶部901に格納された棒グラフを示すテンプレート画像を読み出す。そして、画像データ作成部864は、属性情報取得部862から受信した時間帯情報の示す時間帯における棒グラフの表示色を予め決められた表示色に変更することにより、棒グラフを示すテンプレート画像を加工する。また、画像データ作成部864は、順番決定通知を受信すると、記憶部901に格納された各順番を示すテンプレート画像および全体画像データを読み出す。   When the image data creation unit 864 receives the order determination notification, the image data creation unit 864 reads a template image indicating the bar graph stored in the storage unit 901. The image data creation unit 864 then processes the template image indicating the bar graph by changing the display color of the bar graph in the time zone indicated by the time zone information received from the attribute information acquisition unit 862 to a predetermined display color. . In addition, when receiving the order determination notification, the image data creation unit 864 reads the template image and the entire image data indicating each order stored in the storage unit 901.

画像データ作成部864は、加工された棒グラフを示すテンプレート画像および順番を示すテンプレート画像を、全体画像データの対応する仮想領域に重畳させることにより、センサ内蔵液晶パネル301に表示させる画像データを作成する(S44)。   The image data creation unit 864 creates image data to be displayed on the sensor built-in liquid crystal panel 301 by superimposing the template image indicating the processed bar graph and the template image indicating the order on the corresponding virtual region of the entire image data. (S44).

画像データ作成部864は、画像データを作成すると、表示データとしてデータ処理部700に送信することにより、図14(b)に示すように、当該画像データをセンサ内蔵液晶パネル301に表示させることができる。なお、図14(b)に示すように、属性情報取得部862が各服用品の品名情報も取得し、画像データ作成部864が品名情報および時間帯情報を表示させるようにしてもよい。   When the image data creating unit 864 creates the image data, the image data creating unit 864 transmits the image data to the data processing unit 700 as display data, so that the image data is displayed on the sensor built-in liquid crystal panel 301 as shown in FIG. it can. As shown in FIG. 14B, the attribute information acquisition unit 862 may also acquire the item name information of each clothing item, and the image data creation unit 864 may display the item name information and the time zone information.

以上のように、飲み合わせの相互関係を示すときの表示処理と同様に、対応情報が文字、数値、記号を含む場合であっても、データ表示/センサ装置100は、載置された対象物に応じた情報をユーザが容易に把握できるような画像を表示することができるので、ユーザの利便性を向上させることができる。   As described above, similarly to the display process when showing the mutual relationship of the drinking, the data display / sensor device 100 can display the mounted object even when the correspondence information includes characters, numerical values, and symbols. Since an image that allows the user to easily grasp the information according to the information can be displayed, the convenience for the user can be improved.

〔画像データ作成処理(服用日のグルーピングを示すときの表示処理)〕
次に、図15および図16を参照しながら、服用日のグルーピングを示すときの表示処理としての画像データ作成処理について説明する。図15は、服用日のグルーピングを示すときの表示処理としての画像データ作成処理を示すフローチャートであり、図16(a)は、当該画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図16(b)は、当該画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネル301に表示されたときの表示例を示す図である。
[Image data creation processing (display processing when showing grouping of taking days)]
Next, with reference to FIGS. 15 and 16, image data creation processing as display processing when showing grouping of taking days will be described. FIG. 15 is a flowchart showing image data creation processing as display processing when showing the grouping of taking days, and FIG. 16A shows a virtual area specified when the image data creation processing is executed. FIG. 16B is a diagram illustrating a display example when an image as a result of the execution of the image data creation process is displayed on the sensor built-in liquid crystal panel 301.

なお、服用日のグルーピングを示すときの表示処理の場合には、画像制御部806は、属性情報取得部862が完了通知を受信し、関連情報処理部863が服用品どうしの関連を示す関連情報(ここではグループ情報)を算出した後に、表示領域決定部861が仮想領域と決定する。   In the case of display processing for indicating grouping of taking days, the image control unit 806 receives related information indicating that the attribute information acquisition unit 862 has received a completion notification, and the related information processing unit 863 indicates related information indicating the relationship between clothing items. After calculating (here, group information), the display area determining unit 861 determines the virtual area.

まず、モード設定部807は、文字認識通知を受信すると、画像制御部806が適切な画像データ作成処理を行うことが可能なように、服用日のグルーピングを示すときの表示処理を示す服用日表示モードに設定するものとする。   First, when the mode setting unit 807 receives the character recognition notification, the mode setting unit 807 displays the taking date display indicating the grouping of taking dates so that the image control unit 806 can perform appropriate image data creation processing. The mode shall be set.

次に、属性情報取得部862は、完了通知を受信すると、記憶部901の属性情報テーブルを参照することにより、服用日表示モードのときの属性情報、すなわち各像の服用日情報を取得する(S51)。そして、属性情報取得部862は、取得した各像の服用日情報を関連情報処理部863に送信する。   Next, when the attribute information acquisition unit 862 receives the completion notification, the attribute information acquisition unit 862 refers to the attribute information table in the storage unit 901 to acquire the attribute information in the taking day display mode, that is, the taking day information of each image ( S51). Then, the attribute information acquisition unit 862 transmits the acquired date information of each image to the related information processing unit 863.

関連情報処理部863は、服用日情報を受信すると、同じ服用日を示す服用日情報のグループに分類する(S52)。例えば、図10に示す属性情報テーブルでは、「ガロイン」の服用日情報および「AR150」の服用日情報が同じ「+1」、「フェイチ100」および「AR150」の服用日情報が「+2」、「EC10」の服用日情報が「+5」をそれぞれ示している。この場合、関連情報処理部863は、取得した服用日情報を、「+1」(「ガロイン」および「AR150」)を示すグループG1、「+2」(「フェイチ100」および「AR150」)を示すグループG2、「+5」(「EC10」)を示すグループG3のように分類する。   When the related information processing unit 863 receives the medication date information, the related information processing unit 863 classifies the information into the medication date information groups indicating the same medication date (S52). For example, in the attribute information table shown in FIG. 10, the medication day information of “Garoin” and the medication day information of “AR150” are the same “+1”, “Fate 100” and “AR150” are medication date information “+2”, “ The administration date information of “EC10” indicates “+5”, respectively. In this case, the related information processing unit 863 uses the acquired administration date information as a group G1 indicating “+1” (“Garoin” and “AR150”) and a group indicating “+2” (“Feach 100” and “AR150”). G2 is classified as a group G3 indicating “+5” (“EC10”).

また、関連情報処理部863は、服用日情報を受信すると、グループごとに服用すべき曜日を算出する。具体的には、主制御部800は、例えば像取得部801が全体画像データを取得したときの時刻(日時)を計時部808から取得し、記憶部901に格納されたカレンダーから当該日時の曜日を算出する。そして、関連情報処理部863は、算出した曜日(数値情報)に服用日情報の示す数値を加算することにより、服用すべき曜日を算出する。   Moreover, the related information processing part 863 will calculate the day of the week which should be taken for every group, if dosage date information is received. Specifically, the main control unit 800 acquires, for example, the time (date and time) when the image acquisition unit 801 acquires the entire image data from the time measuring unit 808, and the day of the week from the calendar stored in the storage unit 901. Is calculated. Then, the related information processing unit 863 calculates the day of the week to be taken by adding the numerical value indicated by the medication day information to the calculated day of the week (numerical value information).

例えば、関連情報処理部863は、像取得部801が全体画像データを取得した日の曜日が日曜日であった場合、服用日情報が「+1」であれば服用すべき曜日を月曜日と算出する。同様に、関連情報処理部863は、服用日情報が「+2」であれば服用すべき曜日を火曜日と、服用日情報が「+5」であれば服用すべき曜日を金曜日と算出する。   For example, if the day of the week on which the image acquisition unit 801 has acquired the entire image data is Sunday, the related information processing unit 863 calculates the day of the week to be taken as Monday if the day-of-taking information is “+1”. Similarly, the related information processing unit 863 calculates the day of the week to be taken as Tuesday if the date of taking information is “+2” and the day of the week as to be taken if the date of taking information is “+5”.

関連情報処理部863は、算出した曜日と分類したグループとを対応付け、これをグループ情報(関連情報)として表示領域決定部861に送信する。   The related information processing unit 863 associates the calculated day of the week with the classified group, and transmits this to the display area determining unit 861 as group information (related information).

表示領域決定部861は、グループ情報を取得すると、全体画像データにおける各グループに対応した仮想領域を決定する(S53)。すなわち、表示領域決定部861は、各グループに含まれる品名情報と属性情報テーブルとを参照することにより得られる各グループ内の像の位置に基づいて、図16(a)に示すように、グループ内の像(図16(a)に示す斜線部)をすべて含む領域を、グループ情報を表示するための仮想領域として決定する。例えば、表示領域決定部861は、図16(a)に示すように、グループG1を表示するための仮想領域としての矩形領域P7、グループG2を表示するための仮想領域としての矩形領域P8、グループG3を表示するための仮想領域としての矩形領域P9と決定する。   When acquiring the group information, the display area determining unit 861 determines a virtual area corresponding to each group in the entire image data (S53). That is, as shown in FIG. 16A, the display area determination unit 861 determines the group based on the position of the image in each group obtained by referring to the product name information and the attribute information table included in each group. A region including all the images (shaded portions shown in FIG. 16A) is determined as a virtual region for displaying group information. For example, as shown in FIG. 16A, the display area determination unit 861 has a rectangular area P7 as a virtual area for displaying the group G1, a rectangular area P8 as a virtual area for displaying the group G2, and the group The rectangular area P9 is determined as a virtual area for displaying G3.

表示領域決定部861は、全体画像データにおける仮想領域を決定すると、領域決定通知を画像データ作成部864に送信し、決定した仮想領域としての矩形領域P7からP9の各位置情報(例えば各仮想領域の全体画像データにおける4隅の座標)を、グループに対応付けて記憶部901に格納する。   When the display area determination unit 861 determines a virtual area in the entire image data, the display area determination unit 861 transmits an area determination notification to the image data creation unit 864, and each piece of positional information (for example, each virtual area) of the rectangular areas P7 to P9 as the determined virtual area. Are stored in the storage unit 901 in association with the group.

画像データ作成部864は、領域決定通知を受信すると、記憶部901に格納された円を示すテンプレート画像および全体画像データを読み出す。そして、画像データ作成部864は、各仮想領域の大きさにあわせてテンプレート画像の拡大/縮小を行う。例えば、画像データ作成部864は、各仮想領域の4辺に接触するようにテンプレート画像を拡大/縮小させる。そして、画像データ作成部864は、拡大/縮小処理が行われたテンプレート画像を、全体画像データの対応する仮想領域に重畳させることにより、センサ内蔵液晶パネル301に表示させる画像データを作成する(S54)。   When the image data creation unit 864 receives the region determination notification, the image data creation unit 864 reads the template image indicating the circle and the entire image data stored in the storage unit 901. Then, the image data creation unit 864 enlarges / reduces the template image in accordance with the size of each virtual area. For example, the image data creation unit 864 enlarges / reduces the template image so as to contact four sides of each virtual region. Then, the image data creation unit 864 creates image data to be displayed on the sensor built-in liquid crystal panel 301 by superimposing the template image that has been subjected to the enlargement / reduction processing on the corresponding virtual area of the entire image data (S54). ).

画像データ作成部864は、画像データを作成すると、表示データとしてデータ処理部700に送信することにより、図16(b)に示すように、当該画像データをセンサ内蔵液晶パネル301に表示させることができる。なお、図16(b)に示すように、画像データ作成部864は、グループ情報に含まれる各グループと対応付けられた曜日情報を、センサ内蔵液晶パネル301に表示させるようにしてもよい。   When the image data creating unit 864 creates the image data, the image data creating unit 864 transmits the image data as display data to the data processing unit 700 so that the image data is displayed on the sensor built-in liquid crystal panel 301 as shown in FIG. it can. As shown in FIG. 16B, the image data creation unit 864 may cause the sensor built-in liquid crystal panel 301 to display day information associated with each group included in the group information.

以上のように、データ表示/センサ装置100では、画像制御部806は、センサ内蔵液晶パネル301が像を検知したときの画像における当該像を含む領域に、対応情報を表示させる構成である。これにより、データ表示/センサ装置100は、載置された対象物に応じた情報をユーザが容易に把握できるような画像を表示することができるので、ユーザの利便性を向上させることができる。   As described above, in the data display / sensor device 100, the image control unit 806 is configured to display correspondence information in a region including the image in the image when the sensor built-in liquid crystal panel 301 detects the image. As a result, the data display / sensor device 100 can display an image that allows the user to easily grasp information corresponding to the placed object, thereby improving user convenience.

〔画像データ作成処理(総摂取量を示すときの表示処理)〕
次に、図17および図18を参照しながら、総摂取量を示すときの表示処理としての画像データ作成処理について説明する。図17は、総摂取量を示すときの表示処理としての画像データ作成処理を示すフローチャートであり、図18(a)は、当該画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図18(b)は、当該画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネル301に表示されたときの表示例を示す図である。
[Image data creation process (display process to show total intake)]
Next, image data creation processing as display processing when the total intake is shown will be described with reference to FIGS. 17 and 18. FIG. 17 is a flowchart showing an image data creation process as a display process when the total intake is shown, and FIG. 18A shows an arrangement of virtual areas specified when the image data creation process is executed. FIG. 18B is a diagram illustrating a display example when an image as a result of the execution of the image data creation process is displayed on the sensor built-in liquid crystal panel 301.

なお、総摂取量を示すときの表示処理の場合には、画像制御部806は、属性情報取得部862が完了通知を受信し、関連情報処理部863が服用品どうしの関連を示す関連情報(ここでは割合情報)を算出した後に、表示領域決定部861が仮想領域と決定する。   In the case of display processing for indicating the total intake, the image control unit 806 receives related information indicating that the attribute information acquisition unit 862 receives the completion notification and the related information processing unit 863 indicates the relationship between the clothing items ( Here, after calculating the ratio information), the display area determining unit 861 determines the virtual area.

まず、モード設定部807は、文字認識通知を受信すると、画像制御部806が適切な画像データ作成処理を行うことが可能なように、総摂取量を示すときの表示処理を示す摂取量表示モードに設定するものとする。   First, when receiving a character recognition notification, the mode setting unit 807 displays an intake amount display mode indicating display processing when the total intake amount is displayed so that the image control unit 806 can perform appropriate image data creation processing. Shall be set to

なお、画像制御部806は、モード設定部807が摂取量表示モードに設定した場合には、例えば図18(a)に示す仮想領域P14に服用品を載置するようにユーザに指示するためのメッセージをセンサ内蔵液晶パネル301に表示させてもよい。   When the mode setting unit 807 sets the intake amount display mode, the image control unit 806 is for instructing the user to place clothes on the virtual area P14 shown in FIG. 18A, for example. The message may be displayed on the sensor built-in liquid crystal panel 301.

次に、属性情報取得部862は、完了通知を受信すると、記憶部901の属性情報テーブルを参照することにより、摂取量表示モードのときの属性情報、すなわち各服用品の成分情報を取得する(S61)。そして、属性情報取得部862は、取得した各服用品の成分情報を関連情報処理部863に送信する。   Next, when the attribute information acquisition unit 862 receives the completion notification, the attribute information acquisition unit 862 refers to the attribute information table in the storage unit 901 to acquire attribute information in the intake amount display mode, that is, component information of each clothing item ( S61). Then, the attribute information acquisition unit 862 transmits the acquired component information of each clothing item to the related information processing unit 863.

関連情報処理部863は、成分情報を受信すると、同じ成分を示す成分情報のグループに分類し、各グループの合計成分量を算出し、1日に必要な摂取量に対する割合を算出する(S62)。例えば図10に示す属性情報テーブルでは、「EC10」、「フェイチ100」および「AR150」の「カルシウム」の成分量がそれぞれ「a2」、「a3」および「a4」で示されている。同様に、「ビタミンC」の成分量はそれぞれ「b2」、「b3」および「b4」で示され、「鉄分」の成分量はそれぞれ「c2」、「c3」および「c4」で示されている。この場合、関連情報処理部863は、取得した成分情報を「カルシウム」、「ビタミンC」および「鉄分」に分類し、「カルシウム」の合計成分量a2+a3+a4、「ビタミンC」の合計成分量b2+b3+b4、「鉄分」の合計成分量c2+c3+c4を算出する。   When the related information processing unit 863 receives the component information, the related information processing unit 863 classifies the component information into groups of component information indicating the same component, calculates the total component amount of each group, and calculates the ratio to the daily intake required (S62). . For example, in the attribute information table shown in FIG. 10, the component amounts of “calcium” in “EC10”, “Fetish 100”, and “AR150” are indicated by “a2”, “a3”, and “a4”, respectively. Similarly, “vitamin C” component amounts are indicated by “b2”, “b3” and “b4”, respectively, and “iron” component amounts are indicated by “c2”, “c3” and “c4”, respectively. Yes. In this case, the related information processing unit 863 classifies the acquired component information into “calcium”, “vitamin C”, and “iron”, the total component amount a2 + a3 + a4 of “calcium”, the total component amount b2 + b3 + b4 of “vitamin C”, The total component amount c2 + c3 + c4 of “iron” is calculated.

そして、関連情報処理部863は、記憶部901に予め格納された各成分の1日に必要な摂取量を読み出し、各グループの合計成分量を当該必要な摂取量で割ることにより、1日に必要な摂取量に対する割合を算出する。関連情報処理部863は、この割合を示す割合情報を、服用品どうしの関連を示す関連情報として表示領域決定部861および画像データ作成部864に送信する。   Then, the related information processing unit 863 reads the daily intake amount of each component stored in the storage unit 901 in advance, and divides the total component amount of each group by the required intake amount on the 1st day. Calculate the ratio to the required intake. The related information processing unit 863 transmits the rate information indicating this rate to the display area determining unit 861 and the image data creating unit 864 as related information indicating the relationship between clothes.

表示領域決定部861は、割合情報を受信すると、全体画像データにおける各グループに対応した仮想領域を決定する(S63)。この場合、表示領域決定部861は、割合情報からグループ数を算出し、図18(a)に示すように、予め決められている仮想領域P15の位置情報(例えば全体画像データにおける4隅の座標)を記憶部901から読み出す。そして、表示領域決定部861は、読み出した位置情報に基づいて、グループ数分に均等に分割した仮想領域(この例では矩形領域P151からP153)を決定する。   When receiving the ratio information, the display area determining unit 861 determines a virtual area corresponding to each group in the entire image data (S63). In this case, the display area determining unit 861 calculates the number of groups from the ratio information, and as shown in FIG. 18A, the position information of the virtual area P15 determined in advance (for example, the coordinates of the four corners in the entire image data) ) From the storage unit 901. Then, the display area determination unit 861 determines virtual areas (rectangular areas P151 to P153 in this example) that are equally divided into the number of groups based on the read position information.

表示領域決定部861は、全体画像データにおける仮想領域を決定すると、領域決定通知を画像データ作成部864に送信し、決定した仮想領域としての矩形領域P151からP153の各位置情報(例えば各仮想領域の全体画像データにおける4隅の座標)を、グループに対応付けて記憶部901に格納する。   When the display area determination unit 861 determines the virtual area in the entire image data, the display area determination unit 861 transmits an area determination notification to the image data creation unit 864, and each piece of positional information (for example, each virtual area) of the rectangular areas P151 to P153 as the determined virtual area. Are stored in the storage unit 901 in association with the group.

画像データ作成部864は、領域決定通知を受信すると、記憶部901に格納された円グラフを示すテンプレート画像および全体画像データを読み出す。そして、画像データ作成部864は、表示領域決定部861から受信した割合情報の示す割合を表すために、円グラフの表示色を予め決められた表示色に変更することにより、円グラフを示すテンプレート画像を加工する。   When the image data creation unit 864 receives the region determination notification, the image data creation unit 864 reads the template image and the entire image data indicating the pie chart stored in the storage unit 901. Then, the image data creation unit 864 changes the display color of the pie chart to a predetermined display color in order to represent the ratio indicated by the ratio information received from the display area determination unit 861, thereby displaying the template indicating the pie chart. Process the image.

また、画像データ作成部864は、各仮想領域の大きさにあわせて、加工されたテンプレート画像の拡大/縮小を行う。そして、画像データ作成部864は、拡大/縮小処理が行われたテンプレート画像を、全体画像データの対応する仮想領域に重畳させることにより、センサ内蔵液晶パネル301に表示させる画像データを作成する(S64)。   The image data creation unit 864 enlarges / reduces the processed template image in accordance with the size of each virtual area. Then, the image data creation unit 864 creates image data to be displayed on the sensor built-in liquid crystal panel 301 by superimposing the template image subjected to the enlargement / reduction processing on the corresponding virtual area of the entire image data (S64). ).

画像データ作成部864は、画像データを作成すると、表示データとしてデータ処理部700に送信することにより、図18(b)に示すように、当該画像データをセンサ内蔵液晶パネル301に表示させることができる。   When the image data creating unit 864 creates the image data, the image data creating unit 864 transmits the image data to the data processing unit 700 as display data, so that the image data is displayed on the sensor built-in liquid crystal panel 301 as shown in FIG. it can.

以上のように、飲み合わせの相互関係を示すときの表示処理と同様に、対応情報が文字、数値、記号を含む場合であっても、データ表示/センサ装置100は、載置された対象物に応じた情報をユーザが容易に把握できるような画像を表示することができるので、ユーザの利便性を向上させることができる。   As described above, similarly to the display process when showing the mutual relationship of the drinking, the data display / sensor device 100 can display the mounted object even when the correspondence information includes characters, numerical values, and symbols. Since an image that allows the user to easily grasp the information according to the information can be displayed, the convenience for the user can be improved.

〔画像データ作成処理(賞味期限の判断を示すときの表示処理)〕
次に、図19および図20を参照しながら、賞味期限の判断を示すときの表示処理としての画像データ作成処理について説明する。図19は、賞味期限の判断を示すときの表示処理としての画像データ作成処理を示すフローチャートであり、図20(a)は、当該画像データ作成処理が実行されたときに特定される仮想領域の配置例を示す図であり、図20(b)は、当該画像データ作成処理が実行された結果としての画像が、センサ内蔵液晶パネル301に表示されたときの表示例を示す図である。
[Image data creation process (display process when determining the expiration date)]
Next, image data creation processing as display processing when indicating the expiration date is described with reference to FIGS. 19 and 20. FIG. 19 is a flowchart showing image data creation processing as display processing when the expiration date is determined. FIG. 20A shows a virtual area specified when the image data creation processing is executed. FIG. 20B is a diagram illustrating a display example when an image as a result of the execution of the image data creation process is displayed on the sensor built-in liquid crystal panel 301.

まず、モード設定部807は、文字認識通知を受信すると、画像制御部806が適切な画像データ作成処理を行うことが可能なように、賞味期限の判断を示すときの表示処理を示す期限表示モードに設定するものとする。   First, when the mode setting unit 807 receives the character recognition notification, the mode display unit 807 indicates a display process when displaying the expiration date so that the image control unit 806 can perform an appropriate image data creation process. Shall be set to

次に、画像制御部806の表示領域決定部861は、完了通知を受信すると、図9に示すS1で取得された全体画像データを記憶部901から取得すると共に、モード設定部807で設定された、期限表示モードを示すモード情報を取得する。   Next, when receiving the completion notification, the display area determination unit 861 of the image control unit 806 acquires the entire image data acquired in S1 shown in FIG. 9 from the storage unit 901 and is set by the mode setting unit 807. The mode information indicating the time limit display mode is acquired.

表示領域決定部861は、期限表示モードに対応した各服用品の属性情報に対応した対応情報(ここでは期限判定情報)を表示するための全体画像データにおける仮想領域を決定する。表示領域決定部861は、属性情報テーブルから各服用品に対応した像の位置を読み出し、例えば図20(a)に示すように、各服用品の像(図20(a)に示す斜線部)の位置を中心とした矩形領域P11からP13を仮想領域として決定する(S71)。   The display area determination unit 861 determines a virtual area in the entire image data for displaying correspondence information (here, deadline determination information) corresponding to the attribute information of each article corresponding to the deadline display mode. The display area determining unit 861 reads the position of the image corresponding to each clothing item from the attribute information table, and for example, as shown in FIG. 20A, the image of each clothing item (the hatched portion shown in FIG. 20A). The rectangular areas P11 to P13 centered on the position are determined as virtual areas (S71).

また、表示領域決定部861は、記憶部901に格納された期限超過を示すテンプレート画像および期限内を示すテンプレート画像それぞれに対応するメッセージ情報を示すテンプレート画像を表示するための仮想領域として矩形領域P10を決定する。そして、表示領域決定部861は、仮想領域を決定すると、領域決定通知を属性情報取得部862に送信する。このとき、表示領域決定部861は、決定した仮想領域としての矩形領域P11からP13の各位置情報(例えば各仮想領域の全体画像データにおける4隅の座標)を、各服用品に対応付けて記憶部901に格納する。また、表示領域決定部861は、メッセージ情報を含むテンプレート画像を表示するための仮想領域P10の位置情報を記憶部901に格納する。   In addition, the display area determination unit 861 has a rectangular area P10 as a virtual area for displaying a template image indicating message information corresponding to each of the template image indicating the expiration date and the template image indicating the expiration date stored in the storage unit 901. To decide. When the display area determination unit 861 determines the virtual area, the display area determination unit 861 transmits an area determination notification to the attribute information acquisition unit 862. At this time, the display area determination unit 861 stores the position information of the rectangular areas P11 to P13 as the determined virtual areas (for example, the coordinates of the four corners in the entire image data of each virtual area) in association with each clothing item. Stored in the unit 901. In addition, the display area determination unit 861 stores the position information of the virtual area P10 for displaying the template image including the message information in the storage unit 901.

次に、属性情報取得部862は、領域決定通知を受信すると、記憶部901の属性情報テーブルを参照することにより、期限表示モードのときの属性情報、すなわち各像の期限情報を取得する(S72)。そして、属性情報取得部862は、取得した各像の期限情報を関連情報処理部863に送信する。   Next, when the attribute information acquisition unit 862 receives the region determination notification, the attribute information acquisition unit 862 refers to the attribute information table in the storage unit 901 to acquire the attribute information in the time limit display mode, that is, the time limit information of each image (S72). ). The attribute information acquisition unit 862 transmits the acquired time limit information of each image to the related information processing unit 863.

関連情報処理部863は、期限情報を受信すると、計時部808から現在時刻(日時)を取得し、各服用品の賞味期限に示される日が現在時刻を過ぎているか否かを判定する(S73)。   When the related information processing unit 863 receives the time limit information, the related information processing unit 863 acquires the current time (date and time) from the time measuring unit 808, and determines whether or not the date indicated in the expiration date of each clothing item has passed the current time (S73). ).

関連情報処理部863は、服用品の賞味期限に示される日が現在時刻を過ぎていると判定した場合(S73でYES)、賞味期限が切れていることを示す期限判定情報として、記憶部901に格納された期限超過を示すテンプレート画像と当該服用品とを対応付ける(S74)。一方、服用品の賞味期限に示される日が現在時刻を過ぎていないと判定した場合(S73でNO)、賞味期限が切れていないことを示す期限判定情報として、記憶部901に格納された期限内を示すテンプレート画像と当該服用品とを対応付ける(S75)。関連情報処理部863は、各服用品とテンプレート画像との対応付けが完了すると、対応付け完了通知を表示領域決定部861に送信する。   When the related information processing unit 863 determines that the date shown in the expiration date of the clothes has passed the current time (YES in S73), the storage unit 901 as the expiration date determination information indicating that the expiration date has expired. The template image indicating the expiration date stored in the item is associated with the clothing item (S74). On the other hand, when it is determined that the date indicated in the expiration date of the clothes has not passed the current time (NO in S73), the expiration date stored in the storage unit 901 as expiration date determination information indicating that the expiration date has not expired The template image indicating the inside is associated with the clothing item (S75). When the association between each clothing item and the template image is completed, the related information processing unit 863 transmits an association completion notification to the display area determining unit 861.

例えば、図10に示す属性情報テーブルでは、「ガロイン」、「EC10」および「フェイチ100」の期限情報は、それぞれ「2010/7/1」、「2009/3/1」および「2011/4/1」を示している。従って、関連情報処理部863は、例えば計時部808から「2009/4/1」を示す現在時刻(日時)を取得した場合には、「EC10」を期限超過を示すテンプレート画像と対応付ける一方、「ガロイン」および「フェイチ100」を期限内を示すテンプレート画像と対応付ける。   For example, in the attribute information table shown in FIG. 10, the deadline information of “Garoin”, “EC10”, and “Fetish 100” are “2010/7/1”, “2009/3/1”, and “2011/4 / 1 ". Therefore, when the related information processing unit 863 obtains the current time (date and time) indicating “2009/4/1” from the timing unit 808, for example, the related information processing unit 863 associates “EC10” with the template image indicating that the term has expired, “Garoin” and “Fetish 100” are associated with the template image indicating the deadline.

上記のように、テンプレート画像は、服用品の属性情報と現在時刻との比較により服用品との対応付けが行われたときの期限判定情報(すなわち服用品の属性情報に対応する対応情報)である。また、上記期限超過を示すテンプレート画像は、服用品が期限切れであることを示す「期限切れ」のメッセージおよび図形(ここでは、例えば色付き(例えば赤)の丸印)とを含む情報を示すものであり、上記期限内を示すテンプレート画像は、服用品が期限切れでないことを示す「OK」のメッセージおよび図形(ここでは、例えば上記とは異なる色付き(例えば青)の丸印)とを含む情報を示すものである。   As described above, the template image is deadline determination information (that is, correspondence information corresponding to the clothing attribute information) when the clothing attribute is associated with the clothing by comparing the clothing attribute information with the current time. is there. In addition, the template image indicating that the expiration date has passed indicates information including an “expired” message and a figure (here, for example, a colored (for example, red) circle) indicating that the clothing has expired. The template image indicating the expiration date indicates information including an “OK” message and a graphic (here, for example, a colored (for example, blue) circle different from the above) indicating that the clothes are not expired. It is.

画像データ作成部864は、対応付け完了通知を受信すると、記憶部901に格納されたテンプレート画像および全体画像データを読み出す。そして、画像データ作成部864は、各仮想領域の大きさにあわせてテンプレート画像の拡大/縮小を行う。例えば、画像データ作成部864は、各仮想領域の4辺に接触するようにテンプレート画像を拡大/縮小させる。そして、画像データ作成部864は、拡大/縮小処理が行われたテンプレート画像を、全体画像データの対応する仮想領域に重畳させることにより、センサ内蔵液晶パネル301に表示させる画像データを作成する(S76)。   Upon receiving the association completion notification, the image data creation unit 864 reads the template image and the entire image data stored in the storage unit 901. Then, the image data creation unit 864 enlarges / reduces the template image in accordance with the size of each virtual area. For example, the image data creation unit 864 enlarges / reduces the template image so as to contact four sides of each virtual region. Then, the image data creation unit 864 creates image data to be displayed on the sensor built-in liquid crystal panel 301 by superimposing the template image subjected to the enlargement / reduction processing on the corresponding virtual area of the entire image data (S76). ).

画像データ作成部864は、画像データを作成すると、表示データとしてデータ処理部700に送信することにより、図20(b)に示すように、当該画像データをセンサ内蔵液晶パネル301に表示させることができる。   When the image data creating unit 864 creates the image data, the image data creating unit 864 transmits the image data to the data processing unit 700 as display data, so that the image data is displayed on the sensor built-in liquid crystal panel 301 as shown in FIG. it can.

なお、上記では、図12(b)、図14(b)、図16(b)、図18(b)および図20(b)に示す画像データ作成処理が実行された結果としての画像は、静止画であるものとして説明しているが動画であってもよい。   In the above, the image as a result of executing the image data creation processing shown in FIGS. 12B, 14B, 16B, 18B, and 20B is: Although described as a still image, it may be a moving image.

以上のように、データ表示/センサ装置100では、センサ内蔵液晶パネル301に載置された服用品どうしの関連ではなく、期限判定情報のように、服用品それぞれに対応する対応情報を表示することも可能である。この場合であっても、データ表示/センサ装置100は、上記の表示処理と同様、ユーザに入力操作を行わせずに(すなわち、ユーザの感覚的な操作によって)、センサ内蔵液晶パネル301に載置された対象物を用いて、当該対象物に応じた情報を容易に表示させることができる。   As described above, the data display / sensor device 100 displays the correspondence information corresponding to each clothing item, such as the deadline determination information, instead of the relationship between the clothing items placed on the sensor-equipped liquid crystal panel 301. Is also possible. Even in this case, the data display / sensor device 100 is mounted on the sensor built-in liquid crystal panel 301 without performing an input operation on the user (that is, by a user's sensory operation), as in the above display processing. Using the placed object, information corresponding to the object can be easily displayed.

〔補足1(主制御部800のソフトウェア化)〕
最後に、本実施形態に係るデータ表示/センサ装置100の各ブロック、特に像取得部801、特徴量抽出部802、種別/文字認識部803、属性情報特定部804、画像制御部806(表示領域決定部861、属性情報取得部862、関連情報処理部863および画像データ作成部864)、モード設定部807および計時部808は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
[Supplement 1 (Softwareization of main control unit 800)]
Finally, each block of the data display / sensor device 100 according to the present embodiment, in particular, the image acquisition unit 801, the feature amount extraction unit 802, the type / character recognition unit 803, the attribute information specification unit 804, the image control unit 806 (display area) The determination unit 861, the attribute information acquisition unit 862, the related information processing unit 863, and the image data creation unit 864), the mode setting unit 807, and the timing unit 808 may be configured by hardware logic, or the CPU may be configured as follows. And may be realized by software.

すなわち、本実施形態に係るデータ表示/センサ装置100は、各機能を実現する制御プログラムの命令を実行するCPU(Central Processing Unit)、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデータ表示/センサ装置100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記データ表示/センサ装置100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the data display / sensor device 100 according to the present embodiment expands a CPU (Central Processing Unit) that executes instructions of a control program that realizes each function, a ROM (Read Only Memory) that stores the program, and the program. A random access memory (RAM), a storage device (recording medium) such as a memory for storing the program and various data, and the like. An object of the present invention is a record in which a program code (execution format program, intermediate code program, source program) of a control program for the data display / sensor device 100, which is software for realizing the functions described above, is recorded so as to be readable by a computer. This can also be achieved by supplying a medium to the data display / sensor device 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、本実施形態に係るデータ表示/センサ装置100を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   In addition, the data display / sensor device 100 according to the present embodiment may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

〔補足2(データ表示/センサ装置100の他の使用例)〕
なお、上記では主に、服用品が対象物として載置された場合(すなわち、品名、品番などの文字または記号の認識を行う場合)のデータ表示/センサ装置100における処理の流れについて説明したが、これに限られたものではない。
[Supplement 2 (Data display / other use examples of sensor device 100)]
In the above description, the flow of processing in the data display / sensor device 100 is mainly described when clothing is placed as an object (that is, when characters or symbols such as product names and product numbers are recognized). However, it is not limited to this.

例えば、センサ内蔵液晶パネル301に載置された対象物が個人情報の印字されたICカードである場合には、服用品が載置されたときと同様の文字認識技術を用いた処理が行われる。データ表示/センサ装置100は、少なくとも2人分の個人情報(例えば氏名、生年月日)を取得することにより、ICカードの属性情報を取得する。そして、データ表示/センサ装置100は、取得したICカードの属性情報に基づいて、ICカードどうしの関連を示す関連情報(例えば相性診断を示す情報)を、決定した仮想領域(あるいは予め決められた仮想領域)に表示させる。   For example, when the object placed on the sensor built-in liquid crystal panel 301 is an IC card on which personal information is printed, processing using the same character recognition technology as when clothing is placed is performed. . The data display / sensor device 100 acquires the attribute information of the IC card by acquiring personal information (for example, name, date of birth) for at least two persons. Then, the data display / sensor device 100 determines the related information indicating the relationship between the IC cards (for example, information indicating the compatibility diagnosis) based on the acquired attribute information of the IC cards, or the predetermined virtual region (or a predetermined value). (Virtual area).

また、センサ内蔵液晶パネル301に載置された対象物がナットおよびビスの場合には、ナットに適応するビスを選択表示することができる。この場合、データ表示/センサ装置100は、例えば、2つの領域の一方に1つのナットを、他方に複数のビスを載置させ、当該ナットおよびビスそれぞれの形状を一般的な画像認識技術を用いた処理により取得する。そして、データ表示/センサ装置100は、ナットおよびビスの属性情報に基づいて、ナットとビスとの関連を示す関連情報(例えばナットに適応するビスの選択)を、決定した仮想領域(あるいは予め決められた仮想領域)に表示させる。   Further, when the object placed on the sensor built-in liquid crystal panel 301 is a nut and a screw, a screw suitable for the nut can be selected and displayed. In this case, for example, the data display / sensor device 100 places one nut on one of the two regions and a plurality of screws on the other, and uses a general image recognition technique to shape each of the nut and the screw. Acquired by processing. Then, the data display / sensor device 100 determines related information (for example, selection of a screw adapted to the nut) indicating the relationship between the nut and the screw based on the attribute information of the nut and the screw, and determines the virtual area (or predetermined). Displayed virtual area).

さらに、センサ内蔵液晶パネル301に載置された対象物が複数のビーズである場合には、データ表示/センサ装置100は、ビーズを用いた工芸品を作成するための配置の仕方や完成予想図などの提供を行うことができる。この場合、データ表示/センサ装置100は、ビーズの形状および色彩を一般的な画像認識処理を用いた処理により取得し、形状および色彩に基づいて、ビーズどうしの関連を示す関連情報(例えば使用可能なビーズ、ビーズの使用順番)を、決定した仮想領域(あるいは予め決められた仮想領域)に表示させる。   Further, when the target object placed on the sensor built-in liquid crystal panel 301 is a plurality of beads, the data display / sensor device 100 is arranged in order to create a craft using the beads, or a predicted completion diagram. Etc. can be provided. In this case, the data display / sensor device 100 acquires the shape and color of the beads by processing using a general image recognition process, and related information indicating the relationship between the beads based on the shape and color (for example, usable) Bead and the order in which the beads are used) are displayed in the determined virtual area (or a predetermined virtual area).

また、センサ内蔵液晶パネル301に載置された対象物が複数の種である場合には、データ表示/センサ装置100は、種の種別ごとに分類して分類結果を表示させたり、各種別の属性情報を表示させたりすることができる。この場合、データ表示/センサ装置100は、種の形状および色彩を一般的な画像認識処理を用いた処理により取得する。また、データ表示/センサ装置100は、センサ内蔵液晶パネル301に載置された複数の種それぞれの重さを測定することが可能な構造となっている。そして、データ表示/センサ装置100は、取得した形状、色彩および重さに基づいて、種どうしの関連を示す関連情報(例えば種の種別)を表示させる。   In addition, when the object placed on the sensor built-in liquid crystal panel 301 is a plurality of species, the data display / sensor device 100 classifies each species type to display the classification result, Attribute information can be displayed. In this case, the data display / sensor device 100 acquires the shape and color of the seed by processing using general image recognition processing. Further, the data display / sensor device 100 has a structure capable of measuring the weight of each of a plurality of species placed on the sensor built-in liquid crystal panel 301. Then, the data display / sensor device 100 displays related information (for example, the type of species) indicating the relationship between the species based on the acquired shape, color, and weight.

〔補足3(本発明の別の表現)〕
なお、本発明は、以下のように表現してもよい。
[Supplement 3 (another expression of the present invention)]
The present invention may be expressed as follows.

本発明に係る画像処理装置は、表示機能とスキャナ機能を備えたデバイス(表示面とスキャナ面が同一であることが前提)に置いた物体をスキャンして固体認識を行い、認識結果を物体の近傍に表示する構成である。   An image processing apparatus according to the present invention performs solid recognition by scanning an object placed on a device having a display function and a scanner function (assuming that the display surface and the scanner surface are the same), and obtains the recognition result of the object. It is the structure displayed in the vicinity.

さらに、本発明に係る画像処理装置は、複数の物体を同時に読み取って固体認識を行い、認識結果を用いて論理検索することが好ましい。   Furthermore, the image processing apparatus according to the present invention preferably performs solid recognition by simultaneously reading a plurality of objects, and performs a logical search using the recognition result.

さらに、本発明に係る画像処理装置は、論理検索の検索条件を表す図形を、論理検索の対象となった複数の物体の位置を含めて表示することが好ましい。   Furthermore, the image processing apparatus according to the present invention preferably displays a graphic representing a search condition for logical search including the positions of a plurality of objects subjected to the logical search.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明に係る画像処理装置は、撮像対象となる対象物を用いて、当該対象物に対応ずる情報を容易に表示させることが可能であり、特に、ノート型PC、PDA、電子辞書、携帯電話機などのユーザが持ち運び可能な携帯型端末に適用することができる。   The image processing apparatus according to the present invention can easily display information corresponding to the object using the object to be imaged, and in particular, a notebook PC, a PDA, an electronic dictionary, and a mobile phone. The present invention can be applied to a portable terminal that can be carried by a user.

100 データ表示/センサ装置(画像処理装置)
301 センサ内蔵液晶パネル(面状部材)
802 特徴量抽出部(抽出手段)
804 属性情報特定部(特定手段)
806 画像制御部(画像制御手段)
100 Data display / sensor device (image processing device)
301 Liquid crystal panel with built-in sensor (planar member)
802 Feature amount extraction unit (extraction means)
804 Attribute information identification unit (identification means)
806 Image control unit (image control means)

Claims (6)

画像を表示するとともに、近傍の対象物の像を検知する面状部材と、
上記面状部材が検知した像の特徴量を抽出する抽出手段と、
上記抽出手段が抽出した像の特徴量に基づいて、上記対象物の属性情報を特定する特定手段と、
上記特定手段が特定した属性情報に対応する対応情報を、上記面状部材に対象物が載置された状態で表示させる画像制御手段と、を備えることを特徴とする画像処理装置。
A planar member that displays an image and detects an image of a nearby object;
Extraction means for extracting the feature amount of the image detected by the planar member;
Identification means for identifying attribute information of the object based on the feature amount of the image extracted by the extraction means;
An image processing apparatus comprising: image control means for displaying correspondence information corresponding to the attribute information specified by the specifying means in a state where an object is placed on the planar member.
上記面状部材は、複数の対象物の像を検知するものであり、
上記画像制御手段は、上記複数の対象物それぞれの属性情報に基づいて、当該対象物どうしの関連を示す関連情報を上記対応情報として表示させることを特徴とする請求項1に記載の画像処理装置。
The planar member detects images of a plurality of objects,
The image processing apparatus according to claim 1, wherein the image control unit displays related information indicating a relationship between the objects as the correspondence information based on attribute information of each of the plurality of objects. .
上記画像制御手段は、上記面状部材が像を検知したときの画像における当該像を含む領域に、上記対応情報を表示させることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image control unit displays the correspondence information in a region including the image in the image when the planar member detects the image. 上記画像制御手段は、上記面状部材が像を検知したときの画像における当該像とは異なる領域に、上記対応情報を表示させることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image control unit displays the correspondence information in a region different from the image in the image when the planar member detects the image. 上記対象物は、医薬品またはサプリメントであることを特徴とする請求項1から4の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the object is a medicine or a supplement. 画像を表示するとともに、近傍の対象物の像を検知する面状部材とを備える画像処理装置の制御方法であって、
上記面状部材が検知した像の特徴量を抽出する抽出ステップと、
上記抽出ステップにて抽出された像の特徴量に基づいて、上記対象物の属性情報を特定する特定ステップと、
上記特定ステップにて特定された属性情報に対応する対応情報を、上記面状部材に対象物が載置された状態で表示させる画像制御ステップと、を含むことを特徴とする画像処理装置の制御方法。
A method of controlling an image processing apparatus including an image and a planar member that detects an image of a nearby object,
An extraction step of extracting a feature amount of the image detected by the planar member;
A specifying step for specifying attribute information of the object based on the feature amount of the image extracted in the extraction step;
An image control step of displaying correspondence information corresponding to the attribute information specified in the specifying step in a state where an object is placed on the planar member, and controlling the image processing apparatus Method.
JP2009098394A 2009-04-14 2009-04-14 Image processing apparatus and method for controlling the same Pending JP2010250506A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009098394A JP2010250506A (en) 2009-04-14 2009-04-14 Image processing apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009098394A JP2010250506A (en) 2009-04-14 2009-04-14 Image processing apparatus and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2010250506A true JP2010250506A (en) 2010-11-04

Family

ID=43312769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009098394A Pending JP2010250506A (en) 2009-04-14 2009-04-14 Image processing apparatus and method for controlling the same

Country Status (1)

Country Link
JP (1) JP2010250506A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9423641B2 (en) 2013-01-02 2016-08-23 Samsung Display Co., Ltd. Display having touch sensing function
JP2017021644A (en) * 2015-07-13 2017-01-26 東日本メディコム株式会社 Medicine information providing system, medicine information providing method, program, and envelope
JP2017021645A (en) * 2015-07-13 2017-01-26 東日本メディコム株式会社 Medicine taking support system, medicine taking support method, program, and envelope
JP2018101441A (en) * 2018-02-27 2018-06-28 東日本メディコム株式会社 Medicine taking support system, medicine taking support method, and program
JP2020017307A (en) * 2019-10-16 2020-01-30 東日本メディコム株式会社 Medicine taking support system, medicine taking support method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9423641B2 (en) 2013-01-02 2016-08-23 Samsung Display Co., Ltd. Display having touch sensing function
JP2017021644A (en) * 2015-07-13 2017-01-26 東日本メディコム株式会社 Medicine information providing system, medicine information providing method, program, and envelope
JP2017021645A (en) * 2015-07-13 2017-01-26 東日本メディコム株式会社 Medicine taking support system, medicine taking support method, program, and envelope
JP2018101441A (en) * 2018-02-27 2018-06-28 東日本メディコム株式会社 Medicine taking support system, medicine taking support method, and program
JP2020017307A (en) * 2019-10-16 2020-01-30 東日本メディコム株式会社 Medicine taking support system, medicine taking support method, and program

Similar Documents

Publication Publication Date Title
US11650626B2 (en) Systems and methods for extending a keyboard to a surrounding surface using a wearable extended reality appliance
CN108234693A (en) Electronic equipment with biosensor
JP5367339B2 (en) MENU DISPLAY DEVICE, MENU DISPLAY DEVICE CONTROL METHOD, AND MENU DISPLAY PROGRAM
JP2010250506A (en) Image processing apparatus and method for controlling the same
US20170249061A1 (en) Method and Apparatus for Providing User Interfaces with Computerized Systems and Interacting with a Virtual Environment
WO2011102038A1 (en) Display device with touch panel, control method therefor, control program, and recording medium
JP2010108081A (en) Menu display device, method of controlling the menu display device, and menu display program
JP2010140300A (en) Display, control method, control program and recording medium
JP2010092340A (en) Image display/image detection apparatus, image display method, image display program, and recording medium with program recorded thereon
JP5306780B2 (en) Input device
JP5254753B2 (en) Numerical input device, numerical input method, numerical input program, and computer-readable recording medium
JP5236536B2 (en) Image display / image detection apparatus, control method, control program, and computer-readable recording medium recording the control program
JP2010123082A (en) Display device, control method of the same, display device control program, and computer readable recording medium recording the program
JP2010118018A (en) Position identifying device, position identification program, computer-readable storage medium, and position identification method
JP2010182066A (en) Device and program for estimating contact state, computer-readable recording medium, and method for estimating contact state
JP2010117841A (en) Image detection device, recognition method of input position and program
JP2010108446A (en) Information processor, control method of information processor, and information processing program
JP5179325B2 (en) Image analysis apparatus, image analysis method, display apparatus, image analysis program, and recording medium
JP2010119064A (en) Color detection device, color detection program, computer readable recording medium, and color detection method
JP2010122444A (en) Map display apparatus, method for controlling map display apparatus, program for controlling map display apparatus, and computer readable recording medium
JP2010062938A (en) Image display/image detection apparatus
JP2010128566A (en) Image detection device, recognition method for input region, and program
JP6334994B2 (en) Medication management device, medication management method, and medication management program
US20230395223A1 (en) User interfaces to track medications
JP2010092272A (en) Image display/image detection device, auxiliary image display method, and program