JP2014164629A - Information processor, and degree of putting in order determination method and program - Google Patents

Information processor, and degree of putting in order determination method and program Download PDF

Info

Publication number
JP2014164629A
JP2014164629A JP2013036509A JP2013036509A JP2014164629A JP 2014164629 A JP2014164629 A JP 2014164629A JP 2013036509 A JP2013036509 A JP 2013036509A JP 2013036509 A JP2013036509 A JP 2013036509A JP 2014164629 A JP2014164629 A JP 2014164629A
Authority
JP
Japan
Prior art keywords
determination
degree
image
cabinet
determination target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013036509A
Other languages
Japanese (ja)
Other versions
JP2014164629A5 (en
Inventor
Kumiko Ono
久美子 大野
Tomoshi Moriya
智志 森谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013036509A priority Critical patent/JP2014164629A/en
Publication of JP2014164629A publication Critical patent/JP2014164629A/en
Publication of JP2014164629A5 publication Critical patent/JP2014164629A5/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically determine a degree of putting in order.SOLUTION: According to an information processor, a CPU extracts an image of a determination object of a degree of putting in order from a picked-up image of a determination object area imaged by a camera (S103), measures a previously determined item of an extraction object (an image of the determination object) extracted from the picked-up image with extraction processing (S104), determines a degree of putting the determination object in order on the basis of the measurement result and a reference value (S110), and displays the determination result in a display part.

Description

本発明は、情報処理装置、整理整頓度判定方法及びプログラムに関する。   The present invention relates to an information processing apparatus, a method for determining a degree of order, and a program.

従来、カメラにより撮像された室内映像から家具が転倒する危険領域を求めておき、緊急地震速報取得時に居住者が安全領域にいるか危険領域にいるかを判断し、危険度に応じた警告情報を発する技術が知られている(例えば、特許文献1参照)。   Conventionally, a dangerous area where furniture falls is taken from indoor images captured by a camera, and when an earthquake early warning is obtained, it is determined whether the resident is in a safe area or a dangerous area, and warning information corresponding to the degree of danger is issued. A technique is known (see, for example, Patent Document 1).

特開2010−197101号公報JP 2010-197101 A

ところで、オフィスや作業場等においては、作業効率を向上させるとともに事故を未然に防ぐため、机上、床面、キャビネット等の整理整頓ができているか、物が高く積み上がっていたりはみ出たりする等の危険がないかを見回る安全衛生パトロールが行われることがある。しかしながら、整理整頓の度合いや危険の度合いは人の目で判断されており、基準が曖昧であった。また、多くの人が安全衛生パトロールに参加して判断しなければならず、作業効率が悪いという問題があった。   By the way, in offices and workplaces, in order to improve work efficiency and prevent accidents, there is a danger that the desks, floors, cabinets, etc. are organized and things are piled up and protruding. Safety and health patrols may be conducted to check for signs. However, the degree of organization and the degree of danger were judged by human eyes, and the criteria were ambiguous. In addition, many people have to make decisions by participating in safety and health patrols, which has a problem of poor work efficiency.

特許文献1に記載の技術においては、地震発生時に家具が転倒する危険のある領域を知ることができるが、判定対象物(例えば、机、床面、キャビネット等)や対象エリア全体の日常的な整理整頓度を判定することができない。   In the technique described in Patent Document 1, it is possible to know an area where furniture may fall over in the event of an earthquake. However, the judgment object (for example, desk, floor surface, cabinet, etc.) The degree of organization is not determined.

本発明の課題は、整理整頓度を自動的に判定できるようにすることである。   An object of the present invention is to enable automatic determination of the degree of organization.

上記課題を解決するため、請求項1に記載の発明の情報処理装置は、
撮像手段と、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段と、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段と、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段と、
前記判定手段による判定結果を出力する出力手段と、
を備える。
In order to solve the above problem, an information processing apparatus according to claim 1 is provided.
Imaging means;
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring the value of a predetermined item from the image of the determination object extracted by the extracting means;
Based on the measurement result by the measurement means, a determination means for determining the degree of organization of the determination object,
An output means for outputting a determination result by the determination means;
Is provided.

本発明によれば、判定対象物の整理整頓度を自動的に判定することができるので、人による整理整頓度の判定を行う必要がなくなり、整理整頓度を判定する作業を効率化することができる。   According to the present invention, it is possible to automatically determine the degree of order and order of an object to be determined, so it is not necessary to determine the degree of order and order by a person, and the work for determining the degree of order and order can be made more efficient. it can.

本実施形態における情報処理装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the information processing apparatus in this embodiment. 安全衛生度判定ソフトウエアの構成例を示す図である。It is a figure which shows the structural example of safety hygiene degree determination software. 基準値データテーブルのデータ格納例を示す図である。It is a figure which shows the example of data storage of a reference value data table. ランク判定テーブルのデータ格納例を示す図である。It is a figure which shows the example of data storage of a rank determination table. 判定結果データベースのデータ格納例を示す図である。It is a figure which shows the example of data storage of the determination result database. 図1のCPUにより実行される安全衛生度判定処理を示すフローチャートである。It is a flowchart which shows the safety and health degree determination process performed by CPU of FIG. 図5のステップS10において実行される判定処理を示すフローチャートである。It is a flowchart which shows the determination process performed in step S10 of FIG. 図6のステップS103において実行される抽出処理を示すフローチャートである。It is a flowchart which shows the extraction process performed in step S103 of FIG. 図6のステップS104において実行される測定処理を示すフローチャートである。It is a flowchart which shows the measurement process performed in step S104 of FIG. 判定結果画面の一例を示す図である。It is a figure which shows an example of the determination result screen.

以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated example.

<情報処理装置1の構成>
まず、本実施形態に係る情報処理装置1の構成について説明する。
情報処理装置1は、オフィス、作業場、家屋内等の安全衛生度を判定する装置である。安全衛生度は、整理整頓度と危険度の総称である。情報処理装置1としては、例えば、ノートPC(Personal Computer)、タブレット、ハンディターミナル等の移動型端末が適用可能である。
<Configuration of information processing apparatus 1>
First, the configuration of the information processing apparatus 1 according to the present embodiment will be described.
The information processing apparatus 1 is an apparatus that determines the safety and hygiene level of an office, a workplace, a house, and the like. The degree of safety and hygiene is a general term for the degree of organization and risk. As the information processing apparatus 1, for example, a mobile terminal such as a notebook PC (Personal Computer), a tablet, or a handy terminal is applicable.

図1に、情報処理装置1の機能構成例を示す。図1に示すように、情報処理装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)11、記憶部12、通信部13、表示部14、操作部15、カメラ16等を備えて構成され、各部はバス17により接続されている。   FIG. 1 shows a functional configuration example of the information processing apparatus 1. As shown in FIG. 1, the information processing apparatus 1 includes a CPU (Central Processing Unit) 10, a RAM (Random Access Memory) 11, a storage unit 12, a communication unit 13, a display unit 14, an operation unit 15, a camera 16, and the like. Each part is connected by a bus 17.

CPU10は、記憶部12に記憶されているプログラムを読み出してRAM11のワークエリアに展開し、展開したプログラムに従って、後述する安全衛生度判定処理を始めとする各種処理を実行する。CPU10は、安全衛生度判定処理を実行することにより、抽出手段、測定手段、判定手段として機能する。   CPU10 reads the program memorize | stored in the memory | storage part 12, expand | deploys it to the work area of RAM11, and performs various processes including the safety-hygiene degree determination process mentioned later according to the expand | deployed program. The CPU 10 functions as an extraction unit, a measurement unit, and a determination unit by executing a safety and health level determination process.

RAM11は、揮発性のメモリであり、CPU10により実行される各種プログラムやこれら各種プログラムに係るデータ等を記憶するワークエリアを有する。   The RAM 11 is a volatile memory, and has a work area for storing various programs executed by the CPU 10, data related to these various programs, and the like.

記憶部12は、HDD(Hard Disk Drive)、半導体の不揮発性メモリ等により構成される。記憶部12には、CPU10で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。プログラムは、コンピュータ読み取り可能なプログラムコードの形態で記憶部12に格納されている。CPU10は、当該プログラムコードに従った動作を逐次実行する。   The storage unit 12 includes an HDD (Hard Disk Drive), a semiconductor nonvolatile memory, and the like. The storage unit 12 stores a system program executed by the CPU 10, various processing programs, data necessary for executing these programs, and the like. The program is stored in the storage unit 12 in the form of computer-readable program code. The CPU 10 sequentially executes operations according to the program code.

例えば、記憶部12には、安全衛生度判定ソフトウエア121が記憶されている。安全衛生度判定ソフトウエア121は、CPU10に後述する安全衛生度判定処理を実行させるためのプログラムであり、図2に示すように、基準値登録モジュール121a、ランク登録モジュール121b、カメラ制御モジュール121c、画像比較モジュール121d、測定結果集計モジュール121e、判定結果出力モジュール121fにより構成されている。   For example, the storage unit 12 stores safety and health level determination software 121. The safety and health level determination software 121 is a program for causing the CPU 10 to execute a safety and health level determination process to be described later. As shown in FIG. 2, a reference value registration module 121a, a rank registration module 121b, a camera control module 121c, The image comparison module 121d, the measurement result totaling module 121e, and the determination result output module 121f are included.

また、記憶部12には、基準値データテーブル122、ランク判定テーブル123、参考画像データベース124、撮像画像データベース125、判定結果データベース126が記憶されている。   Further, the storage unit 12 stores a reference value data table 122, a rank determination table 123, a reference image database 124, a captured image database 125, and a determination result database 126.

図3Aに、基準値データテーブル122の一例を示す。図3Aに示すように、基準値データテーブル122は、種別(整理整頓度又は危険度)を示す「種別」、判定対象となる項目を示す「項目」、OKと判定される基準値を示す「基準値」のフィールドを有し、整理整頓度又は危険度を判定する際の項目毎の基準値を記憶するテーブルである。   FIG. 3A shows an example of the reference value data table 122. As shown in FIG. 3A, the reference value data table 122 includes a “type” indicating a type (organization degree or degree of risk), an “item” indicating an item to be determined, and a reference value determined to be OK. It is a table which has a field of “reference value” and stores the reference value for each item when determining the degree of organization or risk.

図3Bに、ランク判定テーブル123の一例を示す。図3Bに示すように、ランク判定テーブル123は、種別(整理整頓度又は危険度)を示す「種別」、ランクを示す「ランク」、そのランクに属する総合評価点を示す「総合評価点」のフィールドを有し、整理整頓度、危険度それぞれについてのランクと総合評価点を対応付けて記憶するテーブルである。   FIG. 3B shows an example of the rank determination table 123. As shown in FIG. 3B, the rank determination table 123 includes a “type” indicating a type (organization degree or degree of risk), a “rank” indicating a rank, and a “total evaluation point” indicating an overall evaluation point belonging to the rank. It is a table which has a field and stores a rank and a comprehensive evaluation score in association with each of the degree of organization and the degree of danger.

参考画像データベース124は、安全衛生度の判定対象物となる机、床、キャビネットのそれぞれの参考画像を格納するデータベースである。参考画像は、判定対象物を何も置いていない状態で撮像することにより得られた画像である。各参考画像においては、予め判定対象物の画像領域が特定されており、その画像領域の座標情報が参考画像に対応付けて記憶されている。また、キャビネットの参考画像には、そのキャビネットの幅の実寸法が対応付けて記憶されている。   The reference image database 124 is a database that stores reference images of desks, floors, and cabinets that are objects of safety and health determination. The reference image is an image obtained by capturing an image with no determination target placed. In each reference image, an image area of the determination target is specified in advance, and coordinate information of the image area is stored in association with the reference image. In addition, in the reference image of the cabinet, the actual dimension of the width of the cabinet is associated and stored.

撮像画像データベース125は、カメラ16により撮像された撮像画像を格納するためのデータベースである。   The captured image database 125 is a database for storing captured images captured by the camera 16.

判定結果データベース126は、撮像画像データベース125に格納されている各撮像画像に基づいて判定された安全衛生度の判定結果データを格納するためのデータベースである。
図4に、判定結果データベース126のデータ格納例を示す。図4に示すように、判定結果データベース126は、撮像画像の画像識別情報を示す「画像ID」、「判定対象物」、「項目」、「基準値」、「測定値」、「判定」、「差」、「評価点」等のフィールドを有し、撮像画像毎に判定結果データを記憶する。なお、図4においては、安全衛生度のうち整理整頓度についての判定結果データを示しているが、危険度についての判定結果データも同様に格納される。
The determination result database 126 is a database for storing determination result data of the safety and health degree determined based on each captured image stored in the captured image database 125.
FIG. 4 shows an example of data storage in the determination result database 126. As shown in FIG. 4, the determination result database 126 includes “image ID”, “determination target”, “item”, “reference value”, “measurement value”, “determination”, which indicate image identification information of a captured image. It has fields such as “difference” and “evaluation point”, and stores determination result data for each captured image. In FIG. 4, the determination result data regarding the degree of organization and order among the safety and health levels is shown, but the determination result data regarding the risk level is also stored in the same manner.

記憶部12は、更に、A4書類、パイプファイルのそれぞれのサイズを記憶している。   The storage unit 12 further stores the sizes of A4 documents and pipe files.

通信部13は、LAN(Local Area Network)アダプタやルータ等により構成され、LAN等の通信ネットワークを介して外部装置と通信接続し、データ送受信を行う。   The communication unit 13 includes a LAN (Local Area Network) adapter, a router, and the like, and performs communication connection with an external device via a communication network such as a LAN to perform data transmission / reception.

表示部14は、LCD(Liquid Crystal Display)等により構成され、CPU10からの表示制御信号に従って、各種表示を行う。   The display unit 14 is configured by an LCD (Liquid Crystal Display) or the like, and performs various displays according to a display control signal from the CPU 10.

操作部15は、カーソルキー、各種機能キー、シャッターキーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU10に出力する。また、操作部15は、表示部14の表面を覆うように透明電極を格子状に配置したタッチパネル等を有し、手指やタッチペン等で押下された位置を検出し、その位置情報を操作情報としてCPU10に出力する。   The operation unit 15 includes a cursor key, various function keys, and a shutter key. The operation unit 15 receives a pressing input of each key by the user and outputs operation information to the CPU 10. The operation unit 15 includes a touch panel or the like in which transparent electrodes are arranged in a grid so as to cover the surface of the display unit 14, detects a position pressed with a finger or a touch pen, and uses the position information as operation information. It outputs to CPU10.

カメラ16は、レンズ、絞り、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備え、撮像素子上に被写体の光学像を結像し、その像を電気的な信号としてCPU10に出力する撮像手段である。   The camera 16 includes an imaging element such as a lens, a diaphragm, a CCD (Charge Coupled Device), or a CMOS (Complementary Metal Oxide Semiconductor), and forms an optical image of a subject on the imaging element, and uses the image as an electrical signal. This is imaging means for outputting to the CPU 10.

<情報処理装置1の動作>
次に、本実施形態における動作について説明する。
<Operation of Information Processing Apparatus 1>
Next, the operation in this embodiment will be described.

図5に、情報処理装置1によって実行される安全衛生度判定処理のフローチャートを示す。安全衛生度判定処理は、操作部15により安全衛生度判定ソフトウエア121の起動が指示された際に、CPU10と記憶部12に記憶されている安全衛生度判定ソフトウエア121との協働により実行される。   FIG. 5 shows a flowchart of the safety and health level determination process executed by the information processing apparatus 1. The safety and health level determination process is executed by the cooperation of the CPU 10 and the safety and health level determination software 121 stored in the storage unit 12 when the operation unit 15 instructs the activation of the safety and health level determination software 121. Is done.

まず、CPU10は、記憶部12の基準値データテーブル122の「基準値」フィールドにデータが存在するか否かを判断する(ステップS1)。
基準値データテーブル122に基準値データが存在しないと判断した場合(ステップS1;NO)、CPU10は、基準値登録モジュール121aを起動させ(ステップS2)、基準値登録モジュール121aに従って、操作部15から入力された基準値を基準値データテーブル122に保存する(ステップS3)。例えば、CPU10は、表示部14に、整理整頓度と危険度のそれぞれの項目(図3A参照)に対する基準値の範囲の入力欄を有する基準値設定画面を表示し、操作部15により入力された値を基準値データテーブル122の「基準値」フィールドに格納する。
First, the CPU 10 determines whether data exists in the “reference value” field of the reference value data table 122 of the storage unit 12 (step S1).
When it is determined that there is no reference value data in the reference value data table 122 (step S1; NO), the CPU 10 activates the reference value registration module 121a (step S2), and from the operation unit 15 according to the reference value registration module 121a. The input reference value is stored in the reference value data table 122 (step S3). For example, the CPU 10 displays a reference value setting screen having an input field for a reference value range for each item (see FIG. 3A) on the ordering degree and the degree of danger on the display unit 14, and is input by the operation unit 15. The value is stored in the “reference value” field of the reference value data table 122.

基準値データテーブル122に基準値データが存在すると判断した場合(ステップS1;YES)、CPU10は、記憶部12のランク判定テーブル123の「総合評価点」フィールドにデータが存在するか否かを判断する(ステップS4)。
ランク判定テーブル123の「総合評価点」フィールドにデータが存在しないと判断した場合(ステップS4;NO)、CPU10は、ランク登録モジュール121bを起動させ(ステップS5)、ランク登録モジュール121bに従って、操作部15から入力された総合評価点を基準値データテーブル122に保存し(ステップS6)、ステップS7の処理に移行する。例えば、CPU10は、表示部14に、整理整頓度と危険度のそれぞれのランク(図3B参照)に対する総合評価点の範囲の入力欄を有するランク設定画面を表示し、操作部15により入力された値を基準値データテーブル122の「総合評価点」フィールドに格納する。
ランク判定テーブル123の「総合評価点」フィールドにデータが存在すると判断した場合(ステップS4;YES)、CPU10は、ステップS7の処理に移行する。
When it is determined that the reference value data exists in the reference value data table 122 (step S1; YES), the CPU 10 determines whether data exists in the “total evaluation score” field of the rank determination table 123 of the storage unit 12. (Step S4).
When it is determined that there is no data in the “total evaluation score” field of the rank determination table 123 (step S4; NO), the CPU 10 activates the rank registration module 121b (step S5), and operates the operation unit according to the rank registration module 121b. The comprehensive evaluation score input from 15 is stored in the reference value data table 122 (step S6), and the process proceeds to step S7. For example, the CPU 10 displays on the display unit 14 a rank setting screen having an input field for the range of overall evaluation points for the respective ranks of the degree of organization and the degree of risk (see FIG. 3B), and is input by the operation unit 15. The value is stored in the “total evaluation score” field of the reference value data table 122.
When it is determined that there is data in the “total evaluation score” field of the rank determination table 123 (step S4; YES), the CPU 10 proceeds to the process of step S7.

ステップS7においては、CPU10は、カメラ制御モジュール121cを起動させる(ステップS7)。ユーザがカメラ16のレンズを安全衛生度の判定対象となるエリア(判定対象エリア)に向けて操作部15のシャッターボタンを押下すると、CPU10は、シャッターボタンの押下操作に従ってカメラ16により撮像を行わせ(ステップS8)、得られた撮像画像を記憶部12の撮像画像データベース125に記憶させる(ステップS9)。   In step S7, the CPU 10 activates the camera control module 121c (step S7). When the user presses the shutter button of the operation unit 15 so that the lens of the camera 16 is directed to an area (determination target area) for which the health and safety level is to be determined, the CPU 10 causes the camera 16 to perform imaging according to the pressing operation of the shutter button. (Step S8), the obtained captured image is stored in the captured image database 125 of the storage unit 12 (Step S9).

次いで、CPU10は、撮像により得られた撮像画像に対し、判定処理を実行する(ステップS10)。
図6に、判定処理のフローチャートを示す。判定処理は、CPU10と、画像比較モジュール121d及び測定結果集計モジュール121eとの協働により実行される。
Next, the CPU 10 performs a determination process on the captured image obtained by imaging (step S10).
FIG. 6 shows a flowchart of the determination process. The determination process is executed in cooperation with the CPU 10, the image comparison module 121d, and the measurement result totaling module 121e.

まず、CPU10は、画像比較モジュール121dを起動させる(ステップS101)。
次いで、CPU10は、図5のステップS8で撮像された撮像画像を開き(ステップS102)、当該撮像画像に対し抽出処理を実行する(ステップS103)。抽出処理は、整理整頓度と危険度の判定対象物の画像を抽出するための処理である。
図7に、抽出処理のフローチャートを示す。抽出処理は、CPU10と、画像比較モジュール121dとの協働により実行される。
First, the CPU 10 activates the image comparison module 121d (step S101).
Next, the CPU 10 opens the captured image captured in step S8 of FIG. 5 (step S102), and executes extraction processing on the captured image (step S103). The extraction process is a process for extracting an image of the determination target object of the degree of order and order.
FIG. 7 shows a flowchart of the extraction process. The extraction process is executed in cooperation with the CPU 10 and the image comparison module 121d.

抽出処理において、CPU10は、まず、撮像画像の中から参考画像データベース124の参考画像(机)の机と同じ色の領域を抽出する(ステップS1001)。なお、色は完全に一致している必要はなく、参考画像の机の色から所定の色空間(例えば、RGB)において所定の範囲内の色を抽出することとしてもよい。   In the extraction process, the CPU 10 first extracts an area of the same color as the desk of the reference image (desk) in the reference image database 124 from the captured image (step S1001). Note that the colors do not have to match completely, and a color within a predetermined range in a predetermined color space (for example, RGB) may be extracted from the desk color of the reference image.

次いで、CPU10は、抽出の結果に基づいて、撮像画像に参考画像の机と同じ色の領域が存在するか否かを判断する(ステップS1002)。
撮像画像に参考画像の机と同じ色の領域が存在すると判断した場合(ステップS1002;YES)、CPU10は、ステップS1001で抽出された領域の形状が参考画像の机の形状と類似しているか否かを判断する(ステップS1003)。例えば、参考画像を解析して机の形状の特徴(例えば、矩形、ひし形等)を抽出し、撮像画像におけるその机と同じ色の領域の形状がその特徴を有していれば、類似していると判断する。
Next, the CPU 10 determines whether or not a region having the same color as the desk of the reference image exists in the captured image based on the extraction result (step S1002).
If it is determined that a region having the same color as the desk of the reference image exists in the captured image (step S1002; YES), the CPU 10 determines whether or not the shape of the region extracted in step S1001 is similar to the shape of the desk of the reference image. Is determined (step S1003). For example, if the reference image is analyzed to extract a feature of the desk shape (for example, a rectangle, a rhombus, etc.), and the shape of the area of the same color as the desk in the captured image has the feature, it is similar. Judge that

ステップS1001で抽出された領域の形状が参考画像の机の形状と類似していると判断した場合(ステップS1003;YES)、CPU10は、抽出物の種類が机であることを示す情報と、抽出された領域の座標情報を対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。   When it is determined that the shape of the region extracted in step S1001 is similar to the shape of the desk of the reference image (step S1003; YES), the CPU 10 extracts information indicating that the type of the extract is a desk, and extraction The coordinate information of the designated area is stored in the RAM 11 in association with it (step S1015), and the process proceeds to step S104 in FIG.

一方、撮像画像に参考画像の机領域と同じ色の領域がないと判断した場合(ステップS1002;NO)、又は、同じ色の領域が抽出されても参考画像の机と形状が類似していないと判断した場合(ステップS1003;NO)、CPU10は、ステップS1004の処理に移行する。なお、撮像画像における机がこの処理で抽出されなかった場合は、ステップS1009以降の処理で手動抽出を行うことが可能である。   On the other hand, when it is determined that there is no area of the same color as the desk area of the reference image in the captured image (step S1002; NO), or the shape of the same color is extracted, the shape of the reference image is not similar to the desk (Step S1003; NO), CPU10 transfers to the process of step S1004. In addition, when the desk in a captured image is not extracted by this process, it is possible to perform manual extraction by the process after step S1009.

ステップS1004において、CPU10は、撮像画像の中から参考画像(床)の床と同じ色の領域を抽出する(ステップS1004)。なお、色は完全に一致している必要はなく、参考画像の床の色から所定の色空間において所定の範囲内の色を抽出することとしてもよい。   In step S1004, the CPU 10 extracts an area having the same color as the floor of the reference image (floor) from the captured image (step S1004). Note that the colors do not have to match completely, and colors within a predetermined range in a predetermined color space may be extracted from the floor color of the reference image.

次いで、CPU10は、抽出の結果に基づいて、撮像画像に参考画像の床と同じ色の領域が存在するか否かを判断する(ステップS1005)。
撮像画像中に参考画像の床と同じ色の領域が存在すると判断した場合(ステップS1005;YES)、CPU10は、抽出物の種類が床であることを示す情報と、抽出された領域の座標情報を対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。
Next, the CPU 10 determines whether or not a region having the same color as the floor of the reference image exists in the captured image based on the extraction result (step S1005).
When it is determined that a region having the same color as the floor of the reference image exists in the captured image (step S1005; YES), the CPU 10 indicates that the type of the extract is the floor and the coordinate information of the extracted region. Are stored in the RAM 11 in association with each other (step S1015), and the process proceeds to step S104 in FIG.

一方、撮像画像に参考画像の床領域と同じ色の領域がないと判断した場合(ステップS1005;NO)、CPU10は、ステップS1006の処理に移行する。なお、撮像画像データ中の床がこの処理で抽出されなかった場合は、ステップS1009以降の処理で手動抽出を行うことが可能である。   On the other hand, when it is determined that the captured image does not have an area of the same color as the floor area of the reference image (step S1005; NO), the CPU 10 proceeds to the process of step S1006. If the floor in the captured image data is not extracted by this processing, manual extraction can be performed in the processing after step S1009.

ステップS1006において、CPU10は、撮像画像の中から参考画像(キャビネット)のキャビネットと同じ色の領域を抽出する(ステップS1006)。なお、色は完全に一致している必要はなく、参考画像のキャビネットの色から所定の色空間において所定の範囲内の色を抽出することとしてもよい。   In step S1006, the CPU 10 extracts an area having the same color as the reference image (cabinet) from the captured image (step S1006). Note that the colors do not need to match completely, and colors within a predetermined range in a predetermined color space may be extracted from the cabinet color of the reference image.

次いで、CPU10は、抽出の結果に基づいて、撮像画像に参考画像のキャビネットと同じ色の領域が存在するか否かを判断する(ステップS1007)。
撮像画像に参考画像のキャビネットと同じ色の領域が存在すると判断した場合(ステップS1007;YES)、CPU10は、撮像画像において、ステップS1007で抽出された領域の形状が参考画像のキャビネットの形状と類似しているか否かを判断する(ステップS1008)。例えば、参考画像を解析してキャビネットの形状の特徴(例えば、矩形、ひし形等)を抽出し、撮像画像におけるその領域と同じ色の領域の形状がその特徴を有していれば、類似していると判断する。
Next, based on the extraction result, the CPU 10 determines whether or not a region having the same color as the reference image cabinet exists in the captured image (step S1007).
When it is determined that a region having the same color as the reference image cabinet exists in the captured image (step S1007; YES), the CPU 10 in the captured image has a shape similar to the shape of the reference image cabinet extracted in step S1007. It is determined whether or not (step S1008). For example, by analyzing the reference image and extracting the characteristics of the cabinet shape (for example, rectangle, rhombus, etc.), if the shape of the area of the same color as the area in the captured image has the characteristics, it is similar. Judge that

ステップS1008で抽出された領域の形状が参考画像のキャビネットの形状と類似していると判断した場合(ステップS1008;YES)、CPU10は、抽出物の種類がキャビネットであることを示す情報と、抽出された領域の座標情報を対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。   When it is determined that the shape of the region extracted in step S1008 is similar to the shape of the cabinet of the reference image (step S1008; YES), the CPU 10 extracts information indicating that the type of extract is a cabinet, and extraction The coordinate information of the designated area is stored in the RAM 11 in association with it (step S1015), and the process proceeds to step S104 in FIG.

一方、撮像画像に参考画像のキャビネット領域と同じ色の領域がないと判断した場合(ステップS1007;NO)、又は、同じ色の領域が抽出されても参考画像のキャビネット領域と形状が類似していないと判断した場合(ステップS1008;NO)、CPU10は、ステップS1009の処理に移行する。なお、撮像画像中のキャビネットがこの処理で抽出されなかった場合は、ステップS1009以降の処理で手動抽出を行うことが可能である。   On the other hand, when it is determined that there is no area of the same color as the cabinet area of the reference image in the captured image (step S1007; NO), or even if the same color area is extracted, the shape is similar to the cabinet area of the reference image. If it is determined that there is not (step S1008; NO), the CPU 10 proceeds to the process of step S1009. In addition, when the cabinet in a captured image is not extracted by this process, manual extraction can be performed by the process after step S1009.

ステップS1009において、CPU10は、表示部14の表示画面上に撮像画像を表示する(ステップS1009)。ユーザの操作部15の操作により表示画面上の判定対象物がタッチ(押下)されると(ステップS1010)、CPU10は、撮像画像におけるタッチされた周辺を判定対象物の領域として抽出し、その領域を強調して表示する(ステップS1011)。例えば、画面上の点が指やペン等によりタッチされると、CPU10は、タッチされた点と同じ色又はその色と所定の色空間において所定の範囲内にある色の領域(タッチされた点と連続する領域)を撮像画像から抽出する。そして、抽出された領域の輪郭を予め定められた色で強調表示する。   In step S1009, the CPU 10 displays the captured image on the display screen of the display unit 14 (step S1009). When the determination object on the display screen is touched (pressed) by the user's operation of the operation unit 15 (step S1010), the CPU 10 extracts the touched periphery in the captured image as the determination object area, and the area. Is highlighted and displayed (step S1011). For example, when a point on the screen is touched with a finger, a pen, or the like, the CPU 10 causes the same color as the touched point or a color region within the predetermined range in the predetermined color space (the touched point). Are extracted from the captured image. Then, the outline of the extracted area is highlighted with a predetermined color.

次いで、CPU10は、表示部14に抽出物の種類(机、床、キャビネット、書類(平積み、縦置き)を選択するための選択画面を表示する(ステップS1012)。
操作部15により抽出物の種類として書類以外が選択されると(ステップS1013;NO)、CPU10は、選択された抽出物の種類を示す情報と、抽出された領域の座標情報を対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。
Next, the CPU 10 displays a selection screen for selecting the type of extract (desk, floor, cabinet, document (flat stacking, vertical placement)) on the display unit 14 (step S1012).
When a type other than a document is selected by the operation unit 15 (step S1013; NO), the CPU 10 associates information indicating the type of the selected extract with coordinate information of the extracted area in the RAM 11. (Step S1015), and the process proceeds to step S104 in FIG.

一方、操作部15により抽出物の種類として書類が選択されると(ステップS1013;YES)、CPU10は、表示部14に書類のサイズ(A4書類、パイプファイル)を選択するための選択画面を表示する(ステップS1014)。操作部15により書類のサイズが選択されると、CPU10は、選択された抽出物の種類及びサイズを示す情報と、抽出された領域の座標情報とを対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。   On the other hand, when a document is selected as the type of extract by the operation unit 15 (step S1013; YES), the CPU 10 displays a selection screen for selecting a document size (A4 document, pipe file) on the display unit 14. (Step S1014). When the size of the document is selected by the operation unit 15, the CPU 10 stores information indicating the type and size of the selected extract and the coordinate information of the extracted area in the RAM 11 in association with each other (step S1015). Then, the process proceeds to step S104 in FIG.

図6のステップS104において、CPU10は、測定処理を実行する(ステップS104)。測定処理は、抽出処理で撮像画像から抽出された抽出物(判定対象物の画像)の予め定められた項目を測定する処理である。   In step S104 of FIG. 6, the CPU 10 executes a measurement process (step S104). The measurement process is a process of measuring a predetermined item of the extract (image of the determination target) extracted from the captured image by the extraction process.

図8に、測定処理のフローチャートを示す。測定処理は、CPU10と、画像比較モジュール121dとの協働により実行される。
まず、CPU10は、撮像画像から抽出された抽出物の種類に基づいて、スペースの割合を測定するか否かを判断する(ステップS1021)。具体的には、抽出物の種類が机、床又はキャビネットである場合、スペースの割合を測定すると判断する。抽出物の種類が書類である場合、スペースの割合を測定しないと判断する。
FIG. 8 shows a flowchart of the measurement process. The measurement process is executed in cooperation with the CPU 10 and the image comparison module 121d.
First, the CPU 10 determines whether or not to measure the space ratio based on the type of extract extracted from the captured image (step S1021). Specifically, when the type of the extract is a desk, a floor, or a cabinet, it is determined that the space ratio is measured. If the type of extract is a document, it is determined not to measure the percentage of space.

スペースの割合を測定しないと判断した場合(ステップS1021;NO)、CPU10は、ステップS1024の処理に移行する。   When determining that the space ratio is not to be measured (step S1021; NO), the CPU 10 proceeds to the process of step S1024.

スペースの割合を測定すると判断した場合(ステップS1021;YES)、CPU10は、参考画像と撮像画像から抽出された領域とを比較し、抽出物の、あるべき空きスペース(B)を推測する(ステップS1022)。
例えば、抽出物の種類が机である場合、参考画像が示すように、机上の形状は矩形やひし形等の四角形であり、その領域全体があるべき空きスペースとなる。一方、机に物が置いてある場合、撮像画像における机の空きスペースは四角形全体とはならず、物の置いてある部分が欠けた領域となる。そこで、抽出物の種類が机である場合、ステップS1022においては、例えば、あるべき空きスペース(B)は撮像画像から抽出された机の外形に囲まれた四角形領域全体であると推測し、その面積を算出する。床も同様である。
また、例えば、抽出物の種類がキャビネットである場合、参考画像が示すように、キャビネット上の空きスペースの幅は、キャビネットの上端部全体である。一方、キャビネット上に物が置いてある場合は、キャビネット上端部が物によって隠れて不連続になる場合がある。そこで、抽出物の種類がキャビネットである場合、あるべき空きスペース(B)は撮像画像から抽出されたキャビネットの上端部全体に相当する部分であると推測し、その幅の長さを算出する。
なお、上記は一例であり、これに限定されるものではない。また、表示部14に撮像画像を表示し、操作部15によりユーザにあるべき空きスペースを指定させることとしてもよい。
If it is determined that the space ratio is to be measured (step S1021; YES), the CPU 10 compares the reference image and the region extracted from the captured image, and estimates the free space (B) that should be in the extract (step). S1022).
For example, when the type of the extract is a desk, as shown in the reference image, the shape on the desk is a rectangle such as a rectangle or a rhombus, which is an empty space where the entire area should be. On the other hand, when an object is placed on the desk, the empty space of the desk in the captured image is not the entire square, but is an area where the part where the object is placed is missing. Therefore, when the type of the extract is a desk, in step S1022, for example, it is assumed that the desired empty space (B) is the entire rectangular area surrounded by the outline of the desk extracted from the captured image. Calculate the area. The same applies to the floor.
For example, when the type of extract is a cabinet, the width of the empty space on the cabinet is the entire upper end of the cabinet, as shown in the reference image. On the other hand, when an object is placed on the cabinet, the upper end of the cabinet may be hidden by the object and become discontinuous. Therefore, when the type of the extract is a cabinet, it is assumed that the desired empty space (B) corresponds to the entire upper end portion of the cabinet extracted from the captured image, and the length of the width is calculated.
The above is an example, and the present invention is not limited to this. Alternatively, a captured image may be displayed on the display unit 14 and the user may be allowed to designate an empty space that should be provided by the operation unit 15.

次いで、CPU10は、撮影画像からの抽出物においてあるべき空きスペース(B)と実際の空きスペース(A)の比率(A/B)を算出し(ステップS1023)、ステップS1024の処理に移行する。
例えば、抽出物の種類が机又は床である場合、抽出処理で抽出された抽出物の領域の面積を実際の空きスペース(A)として算出することができる。また、例えば、抽出物の種類がキャビネットである場合、抽出処理で抽出された抽出物の上端部のうち、物体が載置されていない部分の幅を実際の空きスペース(A)として算出することができる。
なお、上記は一例であり、これに限定されるものではない。また、表示部14に撮像画像を表示し、操作部15によりユーザに実際の空きスペースを指定させることとしてもよい。
Next, the CPU 10 calculates the ratio (A / B) of the empty space (B) that should be in the extract from the captured image and the actual empty space (A) (step S1023), and proceeds to the processing of step S1024.
For example, when the type of the extract is a desk or a floor, the area of the extract area extracted by the extraction process can be calculated as an actual empty space (A). Also, for example, when the type of the extract is a cabinet, the width of the portion where the object is not placed among the upper ends of the extract extracted by the extraction process is calculated as the actual empty space (A). Can do.
The above is an example, and the present invention is not limited to this. Alternatively, the captured image may be displayed on the display unit 14 and the user may be caused to designate an actual empty space by the operation unit 15.

ステップS1024において、CPU10は、抽出物の種類に基づいて、寸法を測定するか否かを判断する。具体的には、抽出物の種類がキャビネット又は書類である場合、寸法を測定すると判断する。抽出物の種類が机又は床である場合、寸法を測定しないと判断する。   In step S1024, the CPU 10 determines whether or not to measure dimensions based on the type of extract. Specifically, when the type of the extract is a cabinet or a document, it is determined that the dimension is measured. If the type of extract is desk or floor, it is determined not to measure the dimensions.

寸法を測定しないと判断した場合(ステップS1024;NO)、CPU10は、算出した測定値を項目名及び抽出処理でRAM11に記憶された情報に対応付けてRAM11に記憶し、図6のステップS105の処理に移行する。   When determining that the dimension is not measured (step S1024; NO), the CPU 10 stores the calculated measurement value in the RAM 11 in association with the item name and the information stored in the RAM 11 in the extraction process, and in step S105 of FIG. Transition to processing.

寸法を測定すると判断した場合(ステップS1024;YES)、CPU10は、抽出物の種類がキャビネットであるか否かを判断する(ステップS1025)。   When it is determined that the dimension is to be measured (step S1024; YES), the CPU 10 determines whether or not the type of the extract is a cabinet (step S1025).

抽出物の種類がキャビネットであると判断した場合(ステップS1025;YES)、CPU10は、撮像画像から抽出されたキャビネットの幅の長さ(a)を測定する(ステップS1026)。
次いで、CPU10は、参考画像データベース124に登録されている参考画像のキャビネットの幅の実寸法(b)を取得し、画像の比率(c=a/b)を算出する(ステップS1027)。
If it is determined that the type of extract is a cabinet (step S1025; YES), the CPU 10 measures the length (a) of the width of the cabinet extracted from the captured image (step S1026).
Next, the CPU 10 acquires the actual size (b) of the width of the reference image cabinet registered in the reference image database 124, and calculates the image ratio (c = a / b) (step S1027).

次いで、CPU10は、撮像画像から抽出されたキャビネット上の荷物の領域を抽出し、撮像画像におけるキャビネットからの荷物のはみ出しの寸法及び荷物の高さの寸法(d)を測定する(ステップS1028)。
そして、CPU10は、画像の比率(c)と寸法(d)から、荷物のはみ出し幅及び荷物の高さの実寸法(d×c)を算出し(ステップS1029)、算出した測定値を項目名及び抽出処理で抽出された情報に対応付けてRAM11に記憶し(ステップS1034)、図6のステップS105の処理に移行する。
Next, the CPU 10 extracts the region of the luggage on the cabinet extracted from the captured image, and measures the dimension of the luggage protruding from the cabinet and the dimension (d) of the luggage height in the captured image (step S1028).
Then, the CPU 10 calculates the actual dimension (d × c) of the protruding width of the luggage and the height of the luggage from the ratio (c) and the dimension (d) of the image (step S1029), and uses the calculated measurement value as the item name. Then, it is stored in the RAM 11 in association with the information extracted in the extraction process (step S1034), and the process proceeds to step S105 in FIG.

一方、抽出物の種類が書類であると判断した場合(ステップS1025;NO)、CPU10は、撮像画像から抽出された書類の寸法(a1)を測定する(ステップS1030)。例えば、撮像画像から抽出された書類が平積みである場合、CPU10は、撮像画像から抽出された書類の横方向の長さの寸法を測定する。撮像画像から抽出された書類が縦置きである場合、撮像画像から抽出された書類の縦方向の長さの寸法を測定する。   On the other hand, when determining that the type of the extract is a document (step S1025; NO), the CPU 10 measures the size (a1) of the document extracted from the captured image (step S1030). For example, when the documents extracted from the captured image are stacked, the CPU 10 measures the dimension of the length in the horizontal direction of the document extracted from the captured image. When the document extracted from the captured image is placed vertically, the length dimension of the document extracted from the captured image is measured.

次いで、CPU10は、記憶部12から図7のステップS1014で選択されたサイズの書類の長さ(ここでは、長辺の長さとする)(b1)を取得し、画像の比率(c1=a1/b1)を算出する(ステップS1031)。
次いで、CPU10は、撮像画像から抽出された書類の高さの寸法(d1)を測定する(ステップS1032)。
Next, the CPU 10 obtains the length (here, the length of the long side) (b1) of the document having the size selected in step S1014 in FIG. 7 from the storage unit 12, and the image ratio (c1 = a1 / b1) is calculated (step S1031).
Next, the CPU 10 measures the height dimension (d1) of the document extracted from the captured image (step S1032).

そして、CPU10は、画像の比率(c1)と寸法(d1)から、書類の高さの実寸法(d1×c1)を算出して(ステップS1033)、算出した測定値を項目名及び抽出処理で抽出された情報に対応付けてRAM11に記憶し(ステップS1034)、図6のステップS105の処理に移行する。   Then, the CPU 10 calculates the actual height (d1 × c1) of the document height from the image ratio (c1) and the size (d1) (step S1033), and uses the calculated measurement value by the item name and extraction processing. The information is stored in the RAM 11 in association with the extracted information (step S1034), and the process proceeds to step S105 in FIG.

図6のステップS105において、CPU10は、測定結果集計モジュール121eを起動させ(ステップS105)、基準値データテーブル122からRAM11に記憶されている測定結果の項目の基準値を取得して、測定結果を基準値と比較する(ステップS106)。   In step S105 of FIG. 6, the CPU 10 activates the measurement result totaling module 121e (step S105), acquires the reference value of the measurement result item stored in the RAM 11 from the reference value data table 122, and displays the measurement result. Comparison with the reference value (step S106).

比較の結果、測定結果が基準値の範囲以内であると判断した場合(ステップS107;YES)、CPU10は、OKであると判定し(ステップS108)、ステップS110の処理に移行する。
比較の結果、測定結果が基準値の範囲外であると判断されると(ステップS107;NO)、NGであると判定され(ステップS109)、処理はステップS110に移行する。
As a result of the comparison, when it is determined that the measurement result is within the range of the reference value (step S107; YES), the CPU 10 determines that it is OK (step S108), and proceeds to the process of step S110.
As a result of the comparison, if it is determined that the measurement result is out of the reference value range (step S107; NO), it is determined that the measurement result is NG (step S109), and the process proceeds to step S110.

ステップS110において、CPU10は、測定された各項目の評価点を算出する(ステップS110)。評価点は、以下の(式1)により算出することができる。この評価点は、抽出された判定対象物の該当する項目の整理整頓度又は危険度を定量的に示す値である。
評価点=判定フラグ×(測定値と基準値との差の絶対値)・・・(式1)
ここで、判定フラグは、判定がOKの場合は+1、NGの場合は−1である。
In step S110, CPU10 calculates the evaluation score of each measured item (step S110). The evaluation score can be calculated by the following (Formula 1). This evaluation point is a value that quantitatively indicates the degree of organization or risk of the corresponding item of the extracted determination object.
Evaluation point = determination flag × (absolute value of difference between measured value and reference value) (Equation 1)
Here, the determination flag is +1 if the determination is OK, and -1 if the determination is NG.

次いで、CPU10は、他に判定対象物があるか否かを判断する(ステップS111)。例えば、CPU10は、他に判定対象物があるか否かをユーザに問い合わせるメッセージを表示部14に表示し、操作部15からの操作に応じて他に判定対象物があるか否かを判断する。例えば、表示部14に撮像画像を表示し、すでに抽出された判定対象物に所定の色を付してどの領域の判定が終了しているかをユーザが認識できるようにすることが好ましい。
他に判定対象物があると判断した場合(ステップS111;YES)、CPU10は、ステップS103の処理に戻る。なお、抽出処理においては、一度抽出された判定対象物は重複した抽出は行わない。
Next, the CPU 10 determines whether there are other determination objects (step S111). For example, the CPU 10 displays a message for inquiring of the user whether there is another determination target object on the display unit 14, and determines whether there is another determination target object according to the operation from the operation unit 15. . For example, it is preferable to display a captured image on the display unit 14 so that the user can recognize which region has been determined by adding a predetermined color to the already extracted determination target.
If it is determined that there is another determination target (step S111; YES), the CPU 10 returns to the process of step S103. Note that, in the extraction process, duplicated extraction is not performed on the determination target that has been extracted once.

他に判定対象物がないと判断した場合(ステップS111;NO)、CPU10は、各判定対象物から算出された整理整頓度及び危険度の評価点をそれぞれ加算して整理整頓度及び危険度のそれぞれの総合評価点を算出する(ステップS112)。総合評価点は、それぞれ、撮像画像により撮像された判定対象エリアの総合的な整理整頓度又は危険度を定量的に示す値である。なお、総合評価点の算出において、1つの項目に対して複数の評価点があった場合(例えば、撮像画像内に複数の机があった場合等)、その項目の評価点の平均点を算出してその項目の評価点としてもよい。   When it is determined that there are no other determination objects (step S111; NO), the CPU 10 adds the evaluation points of the degree of order and the degree of risk calculated from each of the objects to be determined, respectively. Each comprehensive evaluation score is calculated (step S112). The comprehensive evaluation score is a value that quantitatively indicates the overall degree of organization and risk of the determination target area captured by the captured image. In the calculation of the overall evaluation score, when there are multiple evaluation points for one item (for example, when there are multiple desks in the captured image), the average score of the evaluation points for that item is calculated. And it is good also as an evaluation point of the item.

そして、CPU10は、記憶部12のランク判定テーブル123を読み出して、整理整頓度及び危険度のそれぞれについて、算出された総合評価点と各ランクの総合評価点の範囲とを比較し、比較結果に基づいて総合評価点のランクを判定し(ステップS113)、図5のステップS11に移行する。   Then, the CPU 10 reads the rank determination table 123 of the storage unit 12 and compares the calculated overall evaluation score with the range of the overall evaluation score of each rank for each of the degree of organization and the degree of risk, and the comparison result is obtained. Based on the rank of the comprehensive evaluation point (step S113), the process proceeds to step S11 in FIG.

図5のステップS11において、CPU10は、判定結果出力モジュール121fを起動させ(ステップS11)、表示部14に判定結果画面141を表示し(ステップS12)、安全衛生度判定処理を終了する。   In step S11 of FIG. 5, the CPU 10 activates the determination result output module 121f (step S11), displays the determination result screen 141 on the display unit 14 (step S12), and ends the safety and health degree determination process.

図9に、表示部14に表示される判定結果画面141の一例を示す。
図9に示すように、判定結果画面141には、整理整頓度と危険度のそれぞれについての総合評価点及びランクを表示する総合結果表示欄141aと、各判定対象物の各項目の基準値、測定値、判定、差分、評価点を一覧表示する詳細結果表示欄141bとが設けられている。図9においては、判定対象エリアに危険度の判定対象物(キャビネット)がない場合の結果を示しているが、危険度が判定された場合は、その判定結果も併せて表示される。
FIG. 9 shows an example of the determination result screen 141 displayed on the display unit 14.
As shown in FIG. 9, the determination result screen 141 includes a comprehensive result display column 141 a that displays a comprehensive evaluation score and a rank for each of the degree of order and risk, a reference value for each item of each determination object, A detailed result display column 141b for displaying a list of measured values, determinations, differences, and evaluation points is provided. FIG. 9 shows the result when there is no risk judgment object (cabinet) in the judgment target area, but when the risk is judged, the judgment result is also displayed.

このように、安全衛生度判定処理によれば、判定対象エリアの撮像画像からその判定エリア内の机、床、キャビネット、書類等の判定対象物の整理整頓度、危険度を予め定められたアルゴリズムで自動的に算出(判定)し出力するので、統一した基準で定量的な安全衛生度を取得することができる。また、判定対象エリアを撮像するだけで整理整頓度、危険度が算出されるので、安全衛生パトロールの作業を少人数で効率的に行うことが可能となる。   As described above, according to the safety and health level determination processing, an algorithm in which the degree of arrangement and the degree of risk of a determination target object such as a desk, a floor, a cabinet, and a document in the determination area are determined in advance from the captured image of the determination target area. Since it is automatically calculated (determined) and output, the quantitative safety and health level can be obtained with a unified standard. In addition, since the degree of organization and risk is calculated simply by imaging the determination target area, it is possible to efficiently perform the safety and health patrol work with a small number of people.

以上説明したように、本実施形態における情報処理装置1によれば、CPU10は、カメラ16により撮像された判定対象エリアの撮像画像から整理整頓度の判定対象物の画像を抽出し、抽出された判定対象物の画像から予め定められた項目の値を測定し、その測定結果と基準値とに基づいて、判定対象物の整理整頓度を判定し、その判定結果を表示部14に表示する。
従って、判定対象エリアの撮像画像からその判定エリア内の整理整頓度を自動的に算出(判定)することができるので、人による整理整頓度の判定を行う必要がなくなり、整理整頓度の判定作業を少人数で効率的に行うことが可能となる。また、統一した基準で定量的な整理整頓度を算出することができる。
As described above, according to the information processing apparatus 1 in the present embodiment, the CPU 10 extracts and extracts the image of the determination target object of the degree of organization and order from the captured image of the determination target area captured by the camera 16. The value of a predetermined item is measured from the image of the determination target, the degree of ordering of the determination target is determined based on the measurement result and the reference value, and the determination result is displayed on the display unit 14.
Accordingly, since the degree of organization and order in the judgment area can be automatically calculated (determined) from the captured image of the judgment target area, it is not necessary to determine the degree of organization and order by a person, and the work of determining the degree of organization and order is performed. Can be performed efficiently with a small number of people. In addition, it is possible to calculate a quantitative order and tidy degree based on a unified standard.

また、CPU10は、撮像画像に複数の判定対象物が含まれている場合、複数の判定対象物の整理整頓度を演算処理した値に基づいて、カメラ16により撮像されたエリアの総合的な整理整頓度を判定する。従って、判定対象物の個々の整理整頓度だけでなく、カメラ16により撮像された判定対象エリアの総合的な整理整頓度についても効率的に行うことが可能となる。   Further, when a plurality of determination objects are included in the captured image, the CPU 10 comprehensively organizes the areas imaged by the camera 16 based on values obtained by calculating the order and arrangement degree of the plurality of determination objects. Determine the degree of order. Therefore, it is possible to efficiently perform not only the degree of individual arrangement and order of the determination target object, but also the total degree of arrangement of the determination target area captured by the camera 16.

具体的に、情報処理装置1は、机、床、キャビネット、書類の整理整頓度を判定することができる。判定対象物が机の場合は、当該机上スペースの割合を測定し、その測定結果に基づいて整理整頓度を判定することができる。判定対象物が床の場合、当該床のスペースの割合を測定し、その測定結果に基づいて整理整頓度を判定することができる。判定対象物がキャビネットである場合、当該キャビネット上のスペースの割合を測定し、その測定結果に基づいて整理整頓度を判定することができる。判定対象物が書類である場合、当該書類の高さを測定し、その測定結果に基づいて整理整頓度を判定することができる。   Specifically, the information processing apparatus 1 can determine the degree of organization of desks, floors, cabinets, and documents. When the determination target is a desk, the proportion of the desk space can be measured, and the degree of organization can be determined based on the measurement result. When the determination target is a floor, the proportion of space on the floor can be measured, and the degree of organization can be determined based on the measurement result. When the determination target is a cabinet, the proportion of space on the cabinet can be measured, and the degree of organization can be determined based on the measurement result. When the determination target is a document, the height of the document can be measured, and the degree of organization can be determined based on the measurement result.

また、CPU10は、更に、カメラ16により撮像された撮像画像から危険度の判定対象物の画像を抽出し、危険度の判定対象物の画像から予め定められた危険度判定項目の値を測定し、その測定結果に基づいて、判定対象物の危険度を判定する。
従って、判定対象物の撮像画像からその危険度を自動的に算出(判定)することができるので、人による危険度の判定を行う必要がなくなり、危険度の判定作業を少人数で効率的に行うことが可能となる。また、統一した基準で定量的な危険度を算出することができる。
In addition, the CPU 10 further extracts an image of the risk determination target object from the captured image captured by the camera 16 and measures a predetermined risk determination item value from the risk determination target image. Based on the measurement result, the degree of risk of the determination object is determined.
Therefore, since the risk level can be automatically calculated (determined) from the captured image of the determination target object, it is not necessary to determine the risk level by a person, and the risk level determination work can be efficiently performed with a small number of people. Can be done. Further, it is possible to calculate a quantitative risk level based on a unified standard.

なお、上記実施形態における記述内容は、情報処理装置の好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of an information processing apparatus, and is not limited to this.

例えば、上記実施形態においては、出力手段を表示部14とし、判定結果を表示部14の画面上に表示することとして説明したが、これに限定されず、例えば、判定結果をプリンタ等の出力手段から印刷物として出力することとしてもよい。   For example, in the above-described embodiment, it has been described that the output unit is the display unit 14 and the determination result is displayed on the screen of the display unit 14. However, the present invention is not limited to this. For example, the determination result is output to a printer or the like. It is good also as outputting as printed matter from.

また、上記実施形態においては、判定対象物を机、床、キャビネット、書類とした場合を例にとり説明したが、これに限定されるものではない。また、整理整頓度や危険度を判定するための項目についても、好ましい一例を示しており、これに限定されるものではない。   In the above-described embodiment, the case in which the determination target is a desk, a floor, a cabinet, or a document has been described as an example. However, the present invention is not limited to this. Further, items for determining the degree of order and order and the degree of danger are also shown as a preferable example, and the present invention is not limited to this.

また、上記実施形態においては、情報処理装置1を移動型端末として説明したが、例えば、判定対象エリアを撮像可能な位置に情報処理装置1を据え付けておくこととしてもよい。また、複数の判定対象エリアがある場合、判定結果をサーバ装置に送信してサーバ装置で判定結果を出力する構成としてもよい。   In the above embodiment, the information processing apparatus 1 has been described as a mobile terminal. However, for example, the information processing apparatus 1 may be installed at a position where the determination target area can be imaged. When there are a plurality of determination target areas, the determination result may be transmitted to the server device and the determination result may be output from the server device.

また、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Also, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable recording medium such as a CD-ROM, in addition to a ROM, a hard disk, etc. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

その他、情報処理装置を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the information processing apparatus can be changed as appropriate without departing from the spirit of the invention.

(付記)
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
撮像手段と、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段と、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段と、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段と、
前記判定手段による判定結果を出力する出力手段と、
を備える情報処理装置。
<請求項2>
前記判定手段は、前記測定手段による測定結果と前記予め定められた項目の基準値とに基づいて、前記判定対象物の整理整頓度を判定する請求項1に記載の情報処理装置。
<請求項3>
前記判定手段は、前記撮像画像に複数の判定対象物が含まれている場合、前記複数の判定対象物の整理整頓度を演算処理した値に基づいて、前記撮像手段により撮像されたエリアの総合的な整理整頓度を判定する請求項1又は2に記載の情報処理装置。
<請求項4>
前記判定対象物は、机、床、キャビネット、書類のうち少なくとも1つを含む請求項1〜3の何れか一項に記載の情報処理装置。
<請求項5>
前記予め定められた項目は、前記判定対象物が机の場合、当該机上のスペースの割合を含み、前記判定対象物が床の場合、当該床のスペースの割合を含み、前記判定対象物がキャビネットである場合、当該キャビネット上のスペースの割合を含み、前記判定対象物が書類である場合、当該書類の高さを含む請求項4に記載の情報処理装置。
<請求項6>
前記抽出手段は、更に、前記撮像手段により撮像された撮像画像から危険度の判定対象物の画像を抽出し、
前記測定手段は、更に、前記危険度の判定対象物の画像から予め定められた危険度判定項目の値を測定し、
前記判定手段は、前記危険度判定項目の値の測定結果に基づいて、前記危険度の判定対象物の危険度を判定する請求項1〜5の何れか一項に記載の情報処理装置。
<請求項7>
前記危険度の判定対象物はキャビネットであり、
前記予め定められた危険度判定項目は、キャビネットからの荷物のはみ出し幅、キャビネット上の荷物の高さ、キャビネット上のスペースの割合の少なくとも1つを含む請求項6に記載の情報処理装置。
<請求項8>
撮像手段により撮像する工程と、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する工程と、
前記抽出された判定対象物の画像から予め定められた項目の値を測定する工程と、
前記測定結果に基づいて、前記判定対象物の整理整頓度を判定する工程と、
前記判定結果を出力する工程と、
を含む整理整頓度判定方法。
<請求項9>
撮像手段を備える情報処理装置に用いられるコンピュータを、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段、
前記判定手段による判定結果を出力する出力手段、
として機能させるためのプログラム。
(Appendix)
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
Imaging means;
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring the value of a predetermined item from the image of the determination object extracted by the extracting means;
Based on the measurement result by the measurement means, a determination means for determining the degree of organization of the determination object,
An output means for outputting a determination result by the determination means;
An information processing apparatus comprising:
<Claim 2>
The information processing apparatus according to claim 1, wherein the determination unit determines a degree of organization of the determination target based on a measurement result obtained by the measurement unit and a reference value of the predetermined item.
<Claim 3>
In the case where a plurality of determination objects are included in the captured image, the determination unit is configured to calculate a total of areas captured by the imaging unit based on a value obtained by calculating a degree of ordering of the plurality of determination objects. The information processing apparatus according to claim 1, wherein a general organization degree is determined.
<Claim 4>
The information processing apparatus according to claim 1, wherein the determination target includes at least one of a desk, a floor, a cabinet, and a document.
<Claim 5>
The predetermined item includes a ratio of space on the desk when the determination target is a desk, and includes a ratio of space on the floor when the determination target is a floor, and the determination target is a cabinet. The information processing apparatus according to claim 4, wherein the information processing apparatus includes a ratio of a space on the cabinet, and includes a height of the document when the determination target is a document.
<Claim 6>
The extraction unit further extracts an image of the risk determination target object from the captured image captured by the imaging unit,
The measuring means further measures a value of a predetermined risk determination item from an image of the risk determination target object,
The information processing apparatus according to any one of claims 1 to 5, wherein the determination unit determines a risk level of the risk determination target object based on a measurement result of a value of the risk level determination item.
<Claim 7>
The risk determination target is a cabinet,
The information processing apparatus according to claim 6, wherein the predetermined risk determination item includes at least one of a protruding width of the luggage from the cabinet, a height of the luggage on the cabinet, and a ratio of a space on the cabinet.
<Claim 8>
Imaging with imaging means;
Extracting an image of a determination target of the degree of order and arrangement from a captured image captured by the imaging unit;
Measuring a value of a predetermined item from the extracted image of the determination object;
A step of determining a degree of organization of the determination object based on the measurement result;
Outputting the determination result;
A method for determining the degree of order and order.
<Claim 9>
A computer used in an information processing apparatus including an imaging unit,
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring a value of a predetermined item from the image of the determination object extracted by the extracting means;
A determination unit for determining a degree of organization of the determination target based on a measurement result by the measurement unit;
Output means for outputting a determination result by the determination means;
Program to function as.

1 情報処理装置
10 CPU
11 RAM
12 記憶部
121 安全衛生度判定ソフトウエア
121a 基準値登録モジュール
121b ランク登録モジュール
121c カメラ制御モジュール
121d 画像比較モジュール
121e 測定結果集計モジュール
121f 判定結果出力モジュール
122 基準値データテーブル
123 ランク判定テーブル
124 参考画像データベース
125 撮像画像データベース
126 判定結果データベース
13 通信部
14 表示部
15 操作部
16 カメラ
1 Information processing apparatus 10 CPU
11 RAM
12 storage unit 121 safety and health degree determination software 121a reference value registration module 121b rank registration module 121c camera control module 121d image comparison module 121e measurement result totaling module 121f determination result output module 122 reference value data table 123 rank determination table 124 reference image database 125 captured image database 126 determination result database 13 communication unit 14 display unit 15 operation unit 16 camera

Claims (9)

撮像手段と、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段と、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段と、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段と、
前記判定手段による判定結果を出力する出力手段と、
を備える情報処理装置。
Imaging means;
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring the value of a predetermined item from the image of the determination object extracted by the extracting means;
Based on the measurement result by the measurement means, a determination means for determining the degree of organization of the determination object,
An output means for outputting a determination result by the determination means;
An information processing apparatus comprising:
前記判定手段は、前記測定手段による測定結果と前記予め定められた項目の基準値とに基づいて、前記判定対象物の整理整頓度を判定する請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the determination unit determines a degree of organization of the determination target based on a measurement result obtained by the measurement unit and a reference value of the predetermined item. 前記判定手段は、前記撮像画像に複数の判定対象物が含まれている場合、前記複数の判定対象物の整理整頓度を演算処理した値に基づいて、前記撮像手段により撮像されたエリアの総合的な整理整頓度を判定する請求項1又は2に記載の情報処理装置。   In the case where a plurality of determination objects are included in the captured image, the determination unit is configured to calculate a total of areas captured by the imaging unit based on a value obtained by calculating a degree of ordering of the plurality of determination objects. The information processing apparatus according to claim 1, wherein a general organization degree is determined. 前記判定対象物は、机、床、キャビネット、書類のうち少なくとも1つを含む請求項1〜3の何れか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the determination target includes at least one of a desk, a floor, a cabinet, and a document. 前記予め定められた項目は、前記判定対象物が机の場合、当該机上のスペースの割合を含み、前記判定対象物が床の場合、当該床のスペースの割合を含み、前記判定対象物がキャビネットである場合、当該キャビネット上のスペースの割合を含み、前記判定対象物が書類である場合、当該書類の高さを含む請求項4に記載の情報処理装置。   The predetermined item includes a ratio of space on the desk when the determination target is a desk, and includes a ratio of space on the floor when the determination target is a floor, and the determination target is a cabinet. The information processing apparatus according to claim 4, wherein the information processing apparatus includes a ratio of a space on the cabinet, and includes a height of the document when the determination target is a document. 前記抽出手段は、更に、前記撮像手段により撮像された撮像画像から危険度の判定対象物の画像を抽出し、
前記測定手段は、更に、前記危険度の判定対象物の画像から予め定められた危険度判定項目の値を測定し、
前記判定手段は、前記危険度判定項目の値の測定結果に基づいて、前記危険度の判定対象物の危険度を判定する請求項1〜5の何れか一項に記載の情報処理装置。
The extraction unit further extracts an image of the risk determination target object from the captured image captured by the imaging unit,
The measuring means further measures a value of a predetermined risk determination item from an image of the risk determination target object,
The information processing apparatus according to any one of claims 1 to 5, wherein the determination unit determines a risk level of the risk determination target object based on a measurement result of a value of the risk level determination item.
前記危険度の判定対象物はキャビネットであり、
前記予め定められた危険度判定項目は、キャビネットからの荷物のはみ出し幅、キャビネット上の荷物の高さ、キャビネット上のスペースの割合の少なくとも1つを含む請求項6に記載の情報処理装置。
The risk determination target is a cabinet,
The information processing apparatus according to claim 6, wherein the predetermined risk determination item includes at least one of a protruding width of the luggage from the cabinet, a height of the luggage on the cabinet, and a ratio of a space on the cabinet.
撮像手段により撮像する工程と、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する工程と、
前記抽出された判定対象物の画像から予め定められた項目の値を測定する工程と、
前記測定結果に基づいて、前記判定対象物の整理整頓度を判定する工程と、
前記判定結果を出力する工程と、
を含む整理整頓度判定方法。
Imaging with imaging means;
Extracting an image of a determination target of the degree of order and arrangement from a captured image captured by the imaging unit;
Measuring a value of a predetermined item from the extracted image of the determination object;
A step of determining a degree of organization of the determination object based on the measurement result;
Outputting the determination result;
A method for determining the degree of order and order.
撮像手段を備える情報処理装置に用いられるコンピュータを、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段、
前記判定手段による判定結果を出力する出力手段、
として機能させるためのプログラム。
A computer used in an information processing apparatus including an imaging unit,
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring a value of a predetermined item from the image of the determination object extracted by the extracting means;
A determination unit for determining a degree of organization of the determination target based on a measurement result by the measurement unit;
Output means for outputting a determination result by the determination means;
Program to function as.
JP2013036509A 2013-02-27 2013-02-27 Information processor, and degree of putting in order determination method and program Pending JP2014164629A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013036509A JP2014164629A (en) 2013-02-27 2013-02-27 Information processor, and degree of putting in order determination method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013036509A JP2014164629A (en) 2013-02-27 2013-02-27 Information processor, and degree of putting in order determination method and program

Publications (2)

Publication Number Publication Date
JP2014164629A true JP2014164629A (en) 2014-09-08
JP2014164629A5 JP2014164629A5 (en) 2016-04-07

Family

ID=51615158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013036509A Pending JP2014164629A (en) 2013-02-27 2013-02-27 Information processor, and degree of putting in order determination method and program

Country Status (1)

Country Link
JP (1) JP2014164629A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016128977A (en) * 2015-01-09 2016-07-14 富士通株式会社 Monitoring method of changing tendency in disorderliness, monitoring program of changing tendency in disorderliness and monitor system of tendency changing tendency in disorderliness
JP2019113896A (en) * 2017-12-20 2019-07-11 ヤフー株式会社 Device, method, and program for processing information
WO2019146205A1 (en) 2018-01-23 2019-08-01 ソニー株式会社 Information processing device, information processing method, and recording medium
CN111210100A (en) * 2018-11-21 2020-05-29 本田技研工业株式会社 Evaluation system, evaluation method, and storage medium
JP2020130217A (en) * 2019-02-13 2020-08-31 トヨタホーム株式会社 Determination system for inside-building state
JP2021051346A (en) * 2019-09-20 2021-04-01 旭化成ホームズ株式会社 Cleanup support device, cleanup support program and cleanup support method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306077A (en) * 1999-04-21 2000-11-02 Hitachi Zosen Corp Book managing facility
JP2001184568A (en) * 1999-12-27 2001-07-06 Minolta Co Ltd Security system with arrangement condition monitoring function for inside of space
US20090121017A1 (en) * 2007-11-08 2009-05-14 International Business Machines Corporation Using Cameras to Monitor Actual Inventory
JP2013025523A (en) * 2011-07-20 2013-02-04 Hitachi Kokusai Electric Inc Monitoring system and congestion rate calculation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306077A (en) * 1999-04-21 2000-11-02 Hitachi Zosen Corp Book managing facility
JP2001184568A (en) * 1999-12-27 2001-07-06 Minolta Co Ltd Security system with arrangement condition monitoring function for inside of space
US20090121017A1 (en) * 2007-11-08 2009-05-14 International Business Machines Corporation Using Cameras to Monitor Actual Inventory
JP2013025523A (en) * 2011-07-20 2013-02-04 Hitachi Kokusai Electric Inc Monitoring system and congestion rate calculation method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016128977A (en) * 2015-01-09 2016-07-14 富士通株式会社 Monitoring method of changing tendency in disorderliness, monitoring program of changing tendency in disorderliness and monitor system of tendency changing tendency in disorderliness
JP2019113896A (en) * 2017-12-20 2019-07-11 ヤフー株式会社 Device, method, and program for processing information
WO2019146205A1 (en) 2018-01-23 2019-08-01 ソニー株式会社 Information processing device, information processing method, and recording medium
US11868405B2 (en) 2018-01-23 2024-01-09 Sony Corporation Information processor, information processing method, and recording medium
JP7361466B2 (en) 2018-11-21 2023-10-16 本田技研工業株式会社 Evaluation methods and programs
US11335103B2 (en) 2018-11-21 2022-05-17 Honda Motor Co., Ltd. Evaluation system, evaluation method, and storage medium
JP2020086762A (en) * 2018-11-21 2020-06-04 本田技研工業株式会社 Evaluation system, evaluation method, and program
CN111210100A (en) * 2018-11-21 2020-05-29 本田技研工业株式会社 Evaluation system, evaluation method, and storage medium
CN111210100B (en) * 2018-11-21 2024-04-05 本田技研工业株式会社 Evaluation system, evaluation method, and storage medium
JP2020130217A (en) * 2019-02-13 2020-08-31 トヨタホーム株式会社 Determination system for inside-building state
JP7202207B2 (en) 2019-02-13 2023-01-11 トヨタホーム株式会社 In-building condition determination system
JP2021051346A (en) * 2019-09-20 2021-04-01 旭化成ホームズ株式会社 Cleanup support device, cleanup support program and cleanup support method
JP7490347B2 (en) 2019-09-20 2024-05-27 旭化成ホームズ株式会社 Tidying up support device, tidying up support program, and tidying up support method

Similar Documents

Publication Publication Date Title
JP2014164629A (en) Information processor, and degree of putting in order determination method and program
US9507473B2 (en) Method for processing touch operation and mobile terminal
US9332117B2 (en) Information processing device, information processing method, and program
CN102792338A (en) Information processing device, information processing method, and program
KR101375018B1 (en) Apparatus and method for presenting information of food using image acquisition
CN104081438B (en) The treatment of name bubble
JP2015090524A5 (en)
EP2631752A1 (en) Menu display device, menu display control method, program and information storage medium
TWI665600B (en) Electronic device and touch method
US20150324557A1 (en) Electronic device, unlocking method, and non-transitory storage medium
US20140115725A1 (en) File using restriction method, user device and computer-readable storage
JP6531368B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, PROCESSING METHOD, AND PROGRAM
US20170315964A1 (en) Web page reformatting method and apparatus, computing device and non-transitory machine readable storage medium
US9886698B2 (en) Augmented reality product brochure application
JP5103593B2 (en) Order management apparatus, order management system and control program
JP2006146628A5 (en)
JP2008109290A5 (en)
CN110007832A (en) Information terminal device, information processing system and be stored with display control program computer-readable non-transitory storage medium
US20130321579A1 (en) System and Method for Scanning and Analyzing a Users Ergonomic Characteristics
US20150052477A1 (en) Enlargement and reduction of data with a stylus
JP6589062B2 (en) Vacant seat management system, vacant seat management method and program
JP2009065567A5 (en)
JP2009230299A (en) Related document presentation system and program
JP2020008272A (en) Control method and information processing device
JPWO2018180201A1 (en) Similar face image retrieval system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170425