JP2014164629A - Information processor, and degree of putting in order determination method and program - Google Patents
Information processor, and degree of putting in order determination method and program Download PDFInfo
- Publication number
- JP2014164629A JP2014164629A JP2013036509A JP2013036509A JP2014164629A JP 2014164629 A JP2014164629 A JP 2014164629A JP 2013036509 A JP2013036509 A JP 2013036509A JP 2013036509 A JP2013036509 A JP 2013036509A JP 2014164629 A JP2014164629 A JP 2014164629A
- Authority
- JP
- Japan
- Prior art keywords
- determination
- degree
- image
- cabinet
- determination target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Processing (AREA)
- Alarm Systems (AREA)
Abstract
Description
本発明は、情報処理装置、整理整頓度判定方法及びプログラムに関する。 The present invention relates to an information processing apparatus, a method for determining a degree of order, and a program.
従来、カメラにより撮像された室内映像から家具が転倒する危険領域を求めておき、緊急地震速報取得時に居住者が安全領域にいるか危険領域にいるかを判断し、危険度に応じた警告情報を発する技術が知られている(例えば、特許文献1参照)。 Conventionally, a dangerous area where furniture falls is taken from indoor images captured by a camera, and when an earthquake early warning is obtained, it is determined whether the resident is in a safe area or a dangerous area, and warning information corresponding to the degree of danger is issued. A technique is known (see, for example, Patent Document 1).
ところで、オフィスや作業場等においては、作業効率を向上させるとともに事故を未然に防ぐため、机上、床面、キャビネット等の整理整頓ができているか、物が高く積み上がっていたりはみ出たりする等の危険がないかを見回る安全衛生パトロールが行われることがある。しかしながら、整理整頓の度合いや危険の度合いは人の目で判断されており、基準が曖昧であった。また、多くの人が安全衛生パトロールに参加して判断しなければならず、作業効率が悪いという問題があった。 By the way, in offices and workplaces, in order to improve work efficiency and prevent accidents, there is a danger that the desks, floors, cabinets, etc. are organized and things are piled up and protruding. Safety and health patrols may be conducted to check for signs. However, the degree of organization and the degree of danger were judged by human eyes, and the criteria were ambiguous. In addition, many people have to make decisions by participating in safety and health patrols, which has a problem of poor work efficiency.
特許文献1に記載の技術においては、地震発生時に家具が転倒する危険のある領域を知ることができるが、判定対象物(例えば、机、床面、キャビネット等)や対象エリア全体の日常的な整理整頓度を判定することができない。 In the technique described in Patent Document 1, it is possible to know an area where furniture may fall over in the event of an earthquake. However, the judgment object (for example, desk, floor surface, cabinet, etc.) The degree of organization is not determined.
本発明の課題は、整理整頓度を自動的に判定できるようにすることである。 An object of the present invention is to enable automatic determination of the degree of organization.
上記課題を解決するため、請求項1に記載の発明の情報処理装置は、
撮像手段と、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段と、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段と、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段と、
前記判定手段による判定結果を出力する出力手段と、
を備える。
In order to solve the above problem, an information processing apparatus according to claim 1 is provided.
Imaging means;
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring the value of a predetermined item from the image of the determination object extracted by the extracting means;
Based on the measurement result by the measurement means, a determination means for determining the degree of organization of the determination object,
An output means for outputting a determination result by the determination means;
Is provided.
本発明によれば、判定対象物の整理整頓度を自動的に判定することができるので、人による整理整頓度の判定を行う必要がなくなり、整理整頓度を判定する作業を効率化することができる。 According to the present invention, it is possible to automatically determine the degree of order and order of an object to be determined, so it is not necessary to determine the degree of order and order by a person, and the work for determining the degree of order and order can be made more efficient. it can.
以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated example.
<情報処理装置1の構成>
まず、本実施形態に係る情報処理装置1の構成について説明する。
情報処理装置1は、オフィス、作業場、家屋内等の安全衛生度を判定する装置である。安全衛生度は、整理整頓度と危険度の総称である。情報処理装置1としては、例えば、ノートPC(Personal Computer)、タブレット、ハンディターミナル等の移動型端末が適用可能である。
<Configuration of information processing apparatus 1>
First, the configuration of the information processing apparatus 1 according to the present embodiment will be described.
The information processing apparatus 1 is an apparatus that determines the safety and hygiene level of an office, a workplace, a house, and the like. The degree of safety and hygiene is a general term for the degree of organization and risk. As the information processing apparatus 1, for example, a mobile terminal such as a notebook PC (Personal Computer), a tablet, or a handy terminal is applicable.
図1に、情報処理装置1の機能構成例を示す。図1に示すように、情報処理装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)11、記憶部12、通信部13、表示部14、操作部15、カメラ16等を備えて構成され、各部はバス17により接続されている。
FIG. 1 shows a functional configuration example of the information processing apparatus 1. As shown in FIG. 1, the information processing apparatus 1 includes a CPU (Central Processing Unit) 10, a RAM (Random Access Memory) 11, a
CPU10は、記憶部12に記憶されているプログラムを読み出してRAM11のワークエリアに展開し、展開したプログラムに従って、後述する安全衛生度判定処理を始めとする各種処理を実行する。CPU10は、安全衛生度判定処理を実行することにより、抽出手段、測定手段、判定手段として機能する。
CPU10 reads the program memorize | stored in the memory |
RAM11は、揮発性のメモリであり、CPU10により実行される各種プログラムやこれら各種プログラムに係るデータ等を記憶するワークエリアを有する。
The
記憶部12は、HDD(Hard Disk Drive)、半導体の不揮発性メモリ等により構成される。記憶部12には、CPU10で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。プログラムは、コンピュータ読み取り可能なプログラムコードの形態で記憶部12に格納されている。CPU10は、当該プログラムコードに従った動作を逐次実行する。
The
例えば、記憶部12には、安全衛生度判定ソフトウエア121が記憶されている。安全衛生度判定ソフトウエア121は、CPU10に後述する安全衛生度判定処理を実行させるためのプログラムであり、図2に示すように、基準値登録モジュール121a、ランク登録モジュール121b、カメラ制御モジュール121c、画像比較モジュール121d、測定結果集計モジュール121e、判定結果出力モジュール121fにより構成されている。
For example, the
また、記憶部12には、基準値データテーブル122、ランク判定テーブル123、参考画像データベース124、撮像画像データベース125、判定結果データベース126が記憶されている。
Further, the
図3Aに、基準値データテーブル122の一例を示す。図3Aに示すように、基準値データテーブル122は、種別(整理整頓度又は危険度)を示す「種別」、判定対象となる項目を示す「項目」、OKと判定される基準値を示す「基準値」のフィールドを有し、整理整頓度又は危険度を判定する際の項目毎の基準値を記憶するテーブルである。 FIG. 3A shows an example of the reference value data table 122. As shown in FIG. 3A, the reference value data table 122 includes a “type” indicating a type (organization degree or degree of risk), an “item” indicating an item to be determined, and a reference value determined to be OK. It is a table which has a field of “reference value” and stores the reference value for each item when determining the degree of organization or risk.
図3Bに、ランク判定テーブル123の一例を示す。図3Bに示すように、ランク判定テーブル123は、種別(整理整頓度又は危険度)を示す「種別」、ランクを示す「ランク」、そのランクに属する総合評価点を示す「総合評価点」のフィールドを有し、整理整頓度、危険度それぞれについてのランクと総合評価点を対応付けて記憶するテーブルである。 FIG. 3B shows an example of the rank determination table 123. As shown in FIG. 3B, the rank determination table 123 includes a “type” indicating a type (organization degree or degree of risk), a “rank” indicating a rank, and a “total evaluation point” indicating an overall evaluation point belonging to the rank. It is a table which has a field and stores a rank and a comprehensive evaluation score in association with each of the degree of organization and the degree of danger.
参考画像データベース124は、安全衛生度の判定対象物となる机、床、キャビネットのそれぞれの参考画像を格納するデータベースである。参考画像は、判定対象物を何も置いていない状態で撮像することにより得られた画像である。各参考画像においては、予め判定対象物の画像領域が特定されており、その画像領域の座標情報が参考画像に対応付けて記憶されている。また、キャビネットの参考画像には、そのキャビネットの幅の実寸法が対応付けて記憶されている。
The
撮像画像データベース125は、カメラ16により撮像された撮像画像を格納するためのデータベースである。
The captured
判定結果データベース126は、撮像画像データベース125に格納されている各撮像画像に基づいて判定された安全衛生度の判定結果データを格納するためのデータベースである。
図4に、判定結果データベース126のデータ格納例を示す。図4に示すように、判定結果データベース126は、撮像画像の画像識別情報を示す「画像ID」、「判定対象物」、「項目」、「基準値」、「測定値」、「判定」、「差」、「評価点」等のフィールドを有し、撮像画像毎に判定結果データを記憶する。なお、図4においては、安全衛生度のうち整理整頓度についての判定結果データを示しているが、危険度についての判定結果データも同様に格納される。
The
FIG. 4 shows an example of data storage in the
記憶部12は、更に、A4書類、パイプファイルのそれぞれのサイズを記憶している。
The
通信部13は、LAN(Local Area Network)アダプタやルータ等により構成され、LAN等の通信ネットワークを介して外部装置と通信接続し、データ送受信を行う。
The
表示部14は、LCD(Liquid Crystal Display)等により構成され、CPU10からの表示制御信号に従って、各種表示を行う。
The
操作部15は、カーソルキー、各種機能キー、シャッターキーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU10に出力する。また、操作部15は、表示部14の表面を覆うように透明電極を格子状に配置したタッチパネル等を有し、手指やタッチペン等で押下された位置を検出し、その位置情報を操作情報としてCPU10に出力する。
The
カメラ16は、レンズ、絞り、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備え、撮像素子上に被写体の光学像を結像し、その像を電気的な信号としてCPU10に出力する撮像手段である。
The
<情報処理装置1の動作>
次に、本実施形態における動作について説明する。
<Operation of Information Processing Apparatus 1>
Next, the operation in this embodiment will be described.
図5に、情報処理装置1によって実行される安全衛生度判定処理のフローチャートを示す。安全衛生度判定処理は、操作部15により安全衛生度判定ソフトウエア121の起動が指示された際に、CPU10と記憶部12に記憶されている安全衛生度判定ソフトウエア121との協働により実行される。
FIG. 5 shows a flowchart of the safety and health level determination process executed by the information processing apparatus 1. The safety and health level determination process is executed by the cooperation of the
まず、CPU10は、記憶部12の基準値データテーブル122の「基準値」フィールドにデータが存在するか否かを判断する(ステップS1)。
基準値データテーブル122に基準値データが存在しないと判断した場合(ステップS1;NO)、CPU10は、基準値登録モジュール121aを起動させ(ステップS2)、基準値登録モジュール121aに従って、操作部15から入力された基準値を基準値データテーブル122に保存する(ステップS3)。例えば、CPU10は、表示部14に、整理整頓度と危険度のそれぞれの項目(図3A参照)に対する基準値の範囲の入力欄を有する基準値設定画面を表示し、操作部15により入力された値を基準値データテーブル122の「基準値」フィールドに格納する。
First, the
When it is determined that there is no reference value data in the reference value data table 122 (step S1; NO), the
基準値データテーブル122に基準値データが存在すると判断した場合(ステップS1;YES)、CPU10は、記憶部12のランク判定テーブル123の「総合評価点」フィールドにデータが存在するか否かを判断する(ステップS4)。
ランク判定テーブル123の「総合評価点」フィールドにデータが存在しないと判断した場合(ステップS4;NO)、CPU10は、ランク登録モジュール121bを起動させ(ステップS5)、ランク登録モジュール121bに従って、操作部15から入力された総合評価点を基準値データテーブル122に保存し(ステップS6)、ステップS7の処理に移行する。例えば、CPU10は、表示部14に、整理整頓度と危険度のそれぞれのランク(図3B参照)に対する総合評価点の範囲の入力欄を有するランク設定画面を表示し、操作部15により入力された値を基準値データテーブル122の「総合評価点」フィールドに格納する。
ランク判定テーブル123の「総合評価点」フィールドにデータが存在すると判断した場合(ステップS4;YES)、CPU10は、ステップS7の処理に移行する。
When it is determined that the reference value data exists in the reference value data table 122 (step S1; YES), the
When it is determined that there is no data in the “total evaluation score” field of the rank determination table 123 (step S4; NO), the
When it is determined that there is data in the “total evaluation score” field of the rank determination table 123 (step S4; YES), the
ステップS7においては、CPU10は、カメラ制御モジュール121cを起動させる(ステップS7)。ユーザがカメラ16のレンズを安全衛生度の判定対象となるエリア(判定対象エリア)に向けて操作部15のシャッターボタンを押下すると、CPU10は、シャッターボタンの押下操作に従ってカメラ16により撮像を行わせ(ステップS8)、得られた撮像画像を記憶部12の撮像画像データベース125に記憶させる(ステップS9)。
In step S7, the
次いで、CPU10は、撮像により得られた撮像画像に対し、判定処理を実行する(ステップS10)。
図6に、判定処理のフローチャートを示す。判定処理は、CPU10と、画像比較モジュール121d及び測定結果集計モジュール121eとの協働により実行される。
Next, the
FIG. 6 shows a flowchart of the determination process. The determination process is executed in cooperation with the
まず、CPU10は、画像比較モジュール121dを起動させる(ステップS101)。
次いで、CPU10は、図5のステップS8で撮像された撮像画像を開き(ステップS102)、当該撮像画像に対し抽出処理を実行する(ステップS103)。抽出処理は、整理整頓度と危険度の判定対象物の画像を抽出するための処理である。
図7に、抽出処理のフローチャートを示す。抽出処理は、CPU10と、画像比較モジュール121dとの協働により実行される。
First, the
Next, the
FIG. 7 shows a flowchart of the extraction process. The extraction process is executed in cooperation with the
抽出処理において、CPU10は、まず、撮像画像の中から参考画像データベース124の参考画像(机)の机と同じ色の領域を抽出する(ステップS1001)。なお、色は完全に一致している必要はなく、参考画像の机の色から所定の色空間(例えば、RGB)において所定の範囲内の色を抽出することとしてもよい。
In the extraction process, the
次いで、CPU10は、抽出の結果に基づいて、撮像画像に参考画像の机と同じ色の領域が存在するか否かを判断する(ステップS1002)。
撮像画像に参考画像の机と同じ色の領域が存在すると判断した場合(ステップS1002;YES)、CPU10は、ステップS1001で抽出された領域の形状が参考画像の机の形状と類似しているか否かを判断する(ステップS1003)。例えば、参考画像を解析して机の形状の特徴(例えば、矩形、ひし形等)を抽出し、撮像画像におけるその机と同じ色の領域の形状がその特徴を有していれば、類似していると判断する。
Next, the
If it is determined that a region having the same color as the desk of the reference image exists in the captured image (step S1002; YES), the
ステップS1001で抽出された領域の形状が参考画像の机の形状と類似していると判断した場合(ステップS1003;YES)、CPU10は、抽出物の種類が机であることを示す情報と、抽出された領域の座標情報を対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。
When it is determined that the shape of the region extracted in step S1001 is similar to the shape of the desk of the reference image (step S1003; YES), the
一方、撮像画像に参考画像の机領域と同じ色の領域がないと判断した場合(ステップS1002;NO)、又は、同じ色の領域が抽出されても参考画像の机と形状が類似していないと判断した場合(ステップS1003;NO)、CPU10は、ステップS1004の処理に移行する。なお、撮像画像における机がこの処理で抽出されなかった場合は、ステップS1009以降の処理で手動抽出を行うことが可能である。 On the other hand, when it is determined that there is no area of the same color as the desk area of the reference image in the captured image (step S1002; NO), or the shape of the same color is extracted, the shape of the reference image is not similar to the desk (Step S1003; NO), CPU10 transfers to the process of step S1004. In addition, when the desk in a captured image is not extracted by this process, it is possible to perform manual extraction by the process after step S1009.
ステップS1004において、CPU10は、撮像画像の中から参考画像(床)の床と同じ色の領域を抽出する(ステップS1004)。なお、色は完全に一致している必要はなく、参考画像の床の色から所定の色空間において所定の範囲内の色を抽出することとしてもよい。
In step S1004, the
次いで、CPU10は、抽出の結果に基づいて、撮像画像に参考画像の床と同じ色の領域が存在するか否かを判断する(ステップS1005)。
撮像画像中に参考画像の床と同じ色の領域が存在すると判断した場合(ステップS1005;YES)、CPU10は、抽出物の種類が床であることを示す情報と、抽出された領域の座標情報を対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。
Next, the
When it is determined that a region having the same color as the floor of the reference image exists in the captured image (step S1005; YES), the
一方、撮像画像に参考画像の床領域と同じ色の領域がないと判断した場合(ステップS1005;NO)、CPU10は、ステップS1006の処理に移行する。なお、撮像画像データ中の床がこの処理で抽出されなかった場合は、ステップS1009以降の処理で手動抽出を行うことが可能である。
On the other hand, when it is determined that the captured image does not have an area of the same color as the floor area of the reference image (step S1005; NO), the
ステップS1006において、CPU10は、撮像画像の中から参考画像(キャビネット)のキャビネットと同じ色の領域を抽出する(ステップS1006)。なお、色は完全に一致している必要はなく、参考画像のキャビネットの色から所定の色空間において所定の範囲内の色を抽出することとしてもよい。
In step S1006, the
次いで、CPU10は、抽出の結果に基づいて、撮像画像に参考画像のキャビネットと同じ色の領域が存在するか否かを判断する(ステップS1007)。
撮像画像に参考画像のキャビネットと同じ色の領域が存在すると判断した場合(ステップS1007;YES)、CPU10は、撮像画像において、ステップS1007で抽出された領域の形状が参考画像のキャビネットの形状と類似しているか否かを判断する(ステップS1008)。例えば、参考画像を解析してキャビネットの形状の特徴(例えば、矩形、ひし形等)を抽出し、撮像画像におけるその領域と同じ色の領域の形状がその特徴を有していれば、類似していると判断する。
Next, based on the extraction result, the
When it is determined that a region having the same color as the reference image cabinet exists in the captured image (step S1007; YES), the
ステップS1008で抽出された領域の形状が参考画像のキャビネットの形状と類似していると判断した場合(ステップS1008;YES)、CPU10は、抽出物の種類がキャビネットであることを示す情報と、抽出された領域の座標情報を対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。
When it is determined that the shape of the region extracted in step S1008 is similar to the shape of the cabinet of the reference image (step S1008; YES), the
一方、撮像画像に参考画像のキャビネット領域と同じ色の領域がないと判断した場合(ステップS1007;NO)、又は、同じ色の領域が抽出されても参考画像のキャビネット領域と形状が類似していないと判断した場合(ステップS1008;NO)、CPU10は、ステップS1009の処理に移行する。なお、撮像画像中のキャビネットがこの処理で抽出されなかった場合は、ステップS1009以降の処理で手動抽出を行うことが可能である。
On the other hand, when it is determined that there is no area of the same color as the cabinet area of the reference image in the captured image (step S1007; NO), or even if the same color area is extracted, the shape is similar to the cabinet area of the reference image. If it is determined that there is not (step S1008; NO), the
ステップS1009において、CPU10は、表示部14の表示画面上に撮像画像を表示する(ステップS1009)。ユーザの操作部15の操作により表示画面上の判定対象物がタッチ(押下)されると(ステップS1010)、CPU10は、撮像画像におけるタッチされた周辺を判定対象物の領域として抽出し、その領域を強調して表示する(ステップS1011)。例えば、画面上の点が指やペン等によりタッチされると、CPU10は、タッチされた点と同じ色又はその色と所定の色空間において所定の範囲内にある色の領域(タッチされた点と連続する領域)を撮像画像から抽出する。そして、抽出された領域の輪郭を予め定められた色で強調表示する。
In step S1009, the
次いで、CPU10は、表示部14に抽出物の種類(机、床、キャビネット、書類(平積み、縦置き)を選択するための選択画面を表示する(ステップS1012)。
操作部15により抽出物の種類として書類以外が選択されると(ステップS1013;NO)、CPU10は、選択された抽出物の種類を示す情報と、抽出された領域の座標情報を対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。
Next, the
When a type other than a document is selected by the operation unit 15 (step S1013; NO), the
一方、操作部15により抽出物の種類として書類が選択されると(ステップS1013;YES)、CPU10は、表示部14に書類のサイズ(A4書類、パイプファイル)を選択するための選択画面を表示する(ステップS1014)。操作部15により書類のサイズが選択されると、CPU10は、選択された抽出物の種類及びサイズを示す情報と、抽出された領域の座標情報とを対応付けてRAM11に記憶し(ステップS1015)、図6のステップS104の処理に移行する。
On the other hand, when a document is selected as the type of extract by the operation unit 15 (step S1013; YES), the
図6のステップS104において、CPU10は、測定処理を実行する(ステップS104)。測定処理は、抽出処理で撮像画像から抽出された抽出物(判定対象物の画像)の予め定められた項目を測定する処理である。
In step S104 of FIG. 6, the
図8に、測定処理のフローチャートを示す。測定処理は、CPU10と、画像比較モジュール121dとの協働により実行される。
まず、CPU10は、撮像画像から抽出された抽出物の種類に基づいて、スペースの割合を測定するか否かを判断する(ステップS1021)。具体的には、抽出物の種類が机、床又はキャビネットである場合、スペースの割合を測定すると判断する。抽出物の種類が書類である場合、スペースの割合を測定しないと判断する。
FIG. 8 shows a flowchart of the measurement process. The measurement process is executed in cooperation with the
First, the
スペースの割合を測定しないと判断した場合(ステップS1021;NO)、CPU10は、ステップS1024の処理に移行する。
When determining that the space ratio is not to be measured (step S1021; NO), the
スペースの割合を測定すると判断した場合(ステップS1021;YES)、CPU10は、参考画像と撮像画像から抽出された領域とを比較し、抽出物の、あるべき空きスペース(B)を推測する(ステップS1022)。
例えば、抽出物の種類が机である場合、参考画像が示すように、机上の形状は矩形やひし形等の四角形であり、その領域全体があるべき空きスペースとなる。一方、机に物が置いてある場合、撮像画像における机の空きスペースは四角形全体とはならず、物の置いてある部分が欠けた領域となる。そこで、抽出物の種類が机である場合、ステップS1022においては、例えば、あるべき空きスペース(B)は撮像画像から抽出された机の外形に囲まれた四角形領域全体であると推測し、その面積を算出する。床も同様である。
また、例えば、抽出物の種類がキャビネットである場合、参考画像が示すように、キャビネット上の空きスペースの幅は、キャビネットの上端部全体である。一方、キャビネット上に物が置いてある場合は、キャビネット上端部が物によって隠れて不連続になる場合がある。そこで、抽出物の種類がキャビネットである場合、あるべき空きスペース(B)は撮像画像から抽出されたキャビネットの上端部全体に相当する部分であると推測し、その幅の長さを算出する。
なお、上記は一例であり、これに限定されるものではない。また、表示部14に撮像画像を表示し、操作部15によりユーザにあるべき空きスペースを指定させることとしてもよい。
If it is determined that the space ratio is to be measured (step S1021; YES), the
For example, when the type of the extract is a desk, as shown in the reference image, the shape on the desk is a rectangle such as a rectangle or a rhombus, which is an empty space where the entire area should be. On the other hand, when an object is placed on the desk, the empty space of the desk in the captured image is not the entire square, but is an area where the part where the object is placed is missing. Therefore, when the type of the extract is a desk, in step S1022, for example, it is assumed that the desired empty space (B) is the entire rectangular area surrounded by the outline of the desk extracted from the captured image. Calculate the area. The same applies to the floor.
For example, when the type of extract is a cabinet, the width of the empty space on the cabinet is the entire upper end of the cabinet, as shown in the reference image. On the other hand, when an object is placed on the cabinet, the upper end of the cabinet may be hidden by the object and become discontinuous. Therefore, when the type of the extract is a cabinet, it is assumed that the desired empty space (B) corresponds to the entire upper end portion of the cabinet extracted from the captured image, and the length of the width is calculated.
The above is an example, and the present invention is not limited to this. Alternatively, a captured image may be displayed on the
次いで、CPU10は、撮影画像からの抽出物においてあるべき空きスペース(B)と実際の空きスペース(A)の比率(A/B)を算出し(ステップS1023)、ステップS1024の処理に移行する。
例えば、抽出物の種類が机又は床である場合、抽出処理で抽出された抽出物の領域の面積を実際の空きスペース(A)として算出することができる。また、例えば、抽出物の種類がキャビネットである場合、抽出処理で抽出された抽出物の上端部のうち、物体が載置されていない部分の幅を実際の空きスペース(A)として算出することができる。
なお、上記は一例であり、これに限定されるものではない。また、表示部14に撮像画像を表示し、操作部15によりユーザに実際の空きスペースを指定させることとしてもよい。
Next, the
For example, when the type of the extract is a desk or a floor, the area of the extract area extracted by the extraction process can be calculated as an actual empty space (A). Also, for example, when the type of the extract is a cabinet, the width of the portion where the object is not placed among the upper ends of the extract extracted by the extraction process is calculated as the actual empty space (A). Can do.
The above is an example, and the present invention is not limited to this. Alternatively, the captured image may be displayed on the
ステップS1024において、CPU10は、抽出物の種類に基づいて、寸法を測定するか否かを判断する。具体的には、抽出物の種類がキャビネット又は書類である場合、寸法を測定すると判断する。抽出物の種類が机又は床である場合、寸法を測定しないと判断する。
In step S1024, the
寸法を測定しないと判断した場合(ステップS1024;NO)、CPU10は、算出した測定値を項目名及び抽出処理でRAM11に記憶された情報に対応付けてRAM11に記憶し、図6のステップS105の処理に移行する。
When determining that the dimension is not measured (step S1024; NO), the
寸法を測定すると判断した場合(ステップS1024;YES)、CPU10は、抽出物の種類がキャビネットであるか否かを判断する(ステップS1025)。
When it is determined that the dimension is to be measured (step S1024; YES), the
抽出物の種類がキャビネットであると判断した場合(ステップS1025;YES)、CPU10は、撮像画像から抽出されたキャビネットの幅の長さ(a)を測定する(ステップS1026)。
次いで、CPU10は、参考画像データベース124に登録されている参考画像のキャビネットの幅の実寸法(b)を取得し、画像の比率(c=a/b)を算出する(ステップS1027)。
If it is determined that the type of extract is a cabinet (step S1025; YES), the
Next, the
次いで、CPU10は、撮像画像から抽出されたキャビネット上の荷物の領域を抽出し、撮像画像におけるキャビネットからの荷物のはみ出しの寸法及び荷物の高さの寸法(d)を測定する(ステップS1028)。
そして、CPU10は、画像の比率(c)と寸法(d)から、荷物のはみ出し幅及び荷物の高さの実寸法(d×c)を算出し(ステップS1029)、算出した測定値を項目名及び抽出処理で抽出された情報に対応付けてRAM11に記憶し(ステップS1034)、図6のステップS105の処理に移行する。
Next, the
Then, the
一方、抽出物の種類が書類であると判断した場合(ステップS1025;NO)、CPU10は、撮像画像から抽出された書類の寸法(a1)を測定する(ステップS1030)。例えば、撮像画像から抽出された書類が平積みである場合、CPU10は、撮像画像から抽出された書類の横方向の長さの寸法を測定する。撮像画像から抽出された書類が縦置きである場合、撮像画像から抽出された書類の縦方向の長さの寸法を測定する。
On the other hand, when determining that the type of the extract is a document (step S1025; NO), the
次いで、CPU10は、記憶部12から図7のステップS1014で選択されたサイズの書類の長さ(ここでは、長辺の長さとする)(b1)を取得し、画像の比率(c1=a1/b1)を算出する(ステップS1031)。
次いで、CPU10は、撮像画像から抽出された書類の高さの寸法(d1)を測定する(ステップS1032)。
Next, the
Next, the
そして、CPU10は、画像の比率(c1)と寸法(d1)から、書類の高さの実寸法(d1×c1)を算出して(ステップS1033)、算出した測定値を項目名及び抽出処理で抽出された情報に対応付けてRAM11に記憶し(ステップS1034)、図6のステップS105の処理に移行する。
Then, the
図6のステップS105において、CPU10は、測定結果集計モジュール121eを起動させ(ステップS105)、基準値データテーブル122からRAM11に記憶されている測定結果の項目の基準値を取得して、測定結果を基準値と比較する(ステップS106)。
In step S105 of FIG. 6, the
比較の結果、測定結果が基準値の範囲以内であると判断した場合(ステップS107;YES)、CPU10は、OKであると判定し(ステップS108)、ステップS110の処理に移行する。
比較の結果、測定結果が基準値の範囲外であると判断されると(ステップS107;NO)、NGであると判定され(ステップS109)、処理はステップS110に移行する。
As a result of the comparison, when it is determined that the measurement result is within the range of the reference value (step S107; YES), the
As a result of the comparison, if it is determined that the measurement result is out of the reference value range (step S107; NO), it is determined that the measurement result is NG (step S109), and the process proceeds to step S110.
ステップS110において、CPU10は、測定された各項目の評価点を算出する(ステップS110)。評価点は、以下の(式1)により算出することができる。この評価点は、抽出された判定対象物の該当する項目の整理整頓度又は危険度を定量的に示す値である。
評価点=判定フラグ×(測定値と基準値との差の絶対値)・・・(式1)
ここで、判定フラグは、判定がOKの場合は+1、NGの場合は−1である。
In step S110, CPU10 calculates the evaluation score of each measured item (step S110). The evaluation score can be calculated by the following (Formula 1). This evaluation point is a value that quantitatively indicates the degree of organization or risk of the corresponding item of the extracted determination object.
Evaluation point = determination flag × (absolute value of difference between measured value and reference value) (Equation 1)
Here, the determination flag is +1 if the determination is OK, and -1 if the determination is NG.
次いで、CPU10は、他に判定対象物があるか否かを判断する(ステップS111)。例えば、CPU10は、他に判定対象物があるか否かをユーザに問い合わせるメッセージを表示部14に表示し、操作部15からの操作に応じて他に判定対象物があるか否かを判断する。例えば、表示部14に撮像画像を表示し、すでに抽出された判定対象物に所定の色を付してどの領域の判定が終了しているかをユーザが認識できるようにすることが好ましい。
他に判定対象物があると判断した場合(ステップS111;YES)、CPU10は、ステップS103の処理に戻る。なお、抽出処理においては、一度抽出された判定対象物は重複した抽出は行わない。
Next, the
If it is determined that there is another determination target (step S111; YES), the
他に判定対象物がないと判断した場合(ステップS111;NO)、CPU10は、各判定対象物から算出された整理整頓度及び危険度の評価点をそれぞれ加算して整理整頓度及び危険度のそれぞれの総合評価点を算出する(ステップS112)。総合評価点は、それぞれ、撮像画像により撮像された判定対象エリアの総合的な整理整頓度又は危険度を定量的に示す値である。なお、総合評価点の算出において、1つの項目に対して複数の評価点があった場合(例えば、撮像画像内に複数の机があった場合等)、その項目の評価点の平均点を算出してその項目の評価点としてもよい。
When it is determined that there are no other determination objects (step S111; NO), the
そして、CPU10は、記憶部12のランク判定テーブル123を読み出して、整理整頓度及び危険度のそれぞれについて、算出された総合評価点と各ランクの総合評価点の範囲とを比較し、比較結果に基づいて総合評価点のランクを判定し(ステップS113)、図5のステップS11に移行する。
Then, the
図5のステップS11において、CPU10は、判定結果出力モジュール121fを起動させ(ステップS11)、表示部14に判定結果画面141を表示し(ステップS12)、安全衛生度判定処理を終了する。
In step S11 of FIG. 5, the
図9に、表示部14に表示される判定結果画面141の一例を示す。
図9に示すように、判定結果画面141には、整理整頓度と危険度のそれぞれについての総合評価点及びランクを表示する総合結果表示欄141aと、各判定対象物の各項目の基準値、測定値、判定、差分、評価点を一覧表示する詳細結果表示欄141bとが設けられている。図9においては、判定対象エリアに危険度の判定対象物(キャビネット)がない場合の結果を示しているが、危険度が判定された場合は、その判定結果も併せて表示される。
FIG. 9 shows an example of the
As shown in FIG. 9, the
このように、安全衛生度判定処理によれば、判定対象エリアの撮像画像からその判定エリア内の机、床、キャビネット、書類等の判定対象物の整理整頓度、危険度を予め定められたアルゴリズムで自動的に算出(判定)し出力するので、統一した基準で定量的な安全衛生度を取得することができる。また、判定対象エリアを撮像するだけで整理整頓度、危険度が算出されるので、安全衛生パトロールの作業を少人数で効率的に行うことが可能となる。 As described above, according to the safety and health level determination processing, an algorithm in which the degree of arrangement and the degree of risk of a determination target object such as a desk, a floor, a cabinet, and a document in the determination area are determined in advance from the captured image of the determination target area. Since it is automatically calculated (determined) and output, the quantitative safety and health level can be obtained with a unified standard. In addition, since the degree of organization and risk is calculated simply by imaging the determination target area, it is possible to efficiently perform the safety and health patrol work with a small number of people.
以上説明したように、本実施形態における情報処理装置1によれば、CPU10は、カメラ16により撮像された判定対象エリアの撮像画像から整理整頓度の判定対象物の画像を抽出し、抽出された判定対象物の画像から予め定められた項目の値を測定し、その測定結果と基準値とに基づいて、判定対象物の整理整頓度を判定し、その判定結果を表示部14に表示する。
従って、判定対象エリアの撮像画像からその判定エリア内の整理整頓度を自動的に算出(判定)することができるので、人による整理整頓度の判定を行う必要がなくなり、整理整頓度の判定作業を少人数で効率的に行うことが可能となる。また、統一した基準で定量的な整理整頓度を算出することができる。
As described above, according to the information processing apparatus 1 in the present embodiment, the
Accordingly, since the degree of organization and order in the judgment area can be automatically calculated (determined) from the captured image of the judgment target area, it is not necessary to determine the degree of organization and order by a person, and the work of determining the degree of organization and order is performed. Can be performed efficiently with a small number of people. In addition, it is possible to calculate a quantitative order and tidy degree based on a unified standard.
また、CPU10は、撮像画像に複数の判定対象物が含まれている場合、複数の判定対象物の整理整頓度を演算処理した値に基づいて、カメラ16により撮像されたエリアの総合的な整理整頓度を判定する。従って、判定対象物の個々の整理整頓度だけでなく、カメラ16により撮像された判定対象エリアの総合的な整理整頓度についても効率的に行うことが可能となる。
Further, when a plurality of determination objects are included in the captured image, the
具体的に、情報処理装置1は、机、床、キャビネット、書類の整理整頓度を判定することができる。判定対象物が机の場合は、当該机上スペースの割合を測定し、その測定結果に基づいて整理整頓度を判定することができる。判定対象物が床の場合、当該床のスペースの割合を測定し、その測定結果に基づいて整理整頓度を判定することができる。判定対象物がキャビネットである場合、当該キャビネット上のスペースの割合を測定し、その測定結果に基づいて整理整頓度を判定することができる。判定対象物が書類である場合、当該書類の高さを測定し、その測定結果に基づいて整理整頓度を判定することができる。 Specifically, the information processing apparatus 1 can determine the degree of organization of desks, floors, cabinets, and documents. When the determination target is a desk, the proportion of the desk space can be measured, and the degree of organization can be determined based on the measurement result. When the determination target is a floor, the proportion of space on the floor can be measured, and the degree of organization can be determined based on the measurement result. When the determination target is a cabinet, the proportion of space on the cabinet can be measured, and the degree of organization can be determined based on the measurement result. When the determination target is a document, the height of the document can be measured, and the degree of organization can be determined based on the measurement result.
また、CPU10は、更に、カメラ16により撮像された撮像画像から危険度の判定対象物の画像を抽出し、危険度の判定対象物の画像から予め定められた危険度判定項目の値を測定し、その測定結果に基づいて、判定対象物の危険度を判定する。
従って、判定対象物の撮像画像からその危険度を自動的に算出(判定)することができるので、人による危険度の判定を行う必要がなくなり、危険度の判定作業を少人数で効率的に行うことが可能となる。また、統一した基準で定量的な危険度を算出することができる。
In addition, the
Therefore, since the risk level can be automatically calculated (determined) from the captured image of the determination target object, it is not necessary to determine the risk level by a person, and the risk level determination work can be efficiently performed with a small number of people. Can be done. Further, it is possible to calculate a quantitative risk level based on a unified standard.
なお、上記実施形態における記述内容は、情報処理装置の好適な一例であり、これに限定されるものではない。 In addition, the description content in the said embodiment is a suitable example of an information processing apparatus, and is not limited to this.
例えば、上記実施形態においては、出力手段を表示部14とし、判定結果を表示部14の画面上に表示することとして説明したが、これに限定されず、例えば、判定結果をプリンタ等の出力手段から印刷物として出力することとしてもよい。
For example, in the above-described embodiment, it has been described that the output unit is the
また、上記実施形態においては、判定対象物を机、床、キャビネット、書類とした場合を例にとり説明したが、これに限定されるものではない。また、整理整頓度や危険度を判定するための項目についても、好ましい一例を示しており、これに限定されるものではない。 In the above-described embodiment, the case in which the determination target is a desk, a floor, a cabinet, or a document has been described as an example. However, the present invention is not limited to this. Further, items for determining the degree of order and order and the degree of danger are also shown as a preferable example, and the present invention is not limited to this.
また、上記実施形態においては、情報処理装置1を移動型端末として説明したが、例えば、判定対象エリアを撮像可能な位置に情報処理装置1を据え付けておくこととしてもよい。また、複数の判定対象エリアがある場合、判定結果をサーバ装置に送信してサーバ装置で判定結果を出力する構成としてもよい。 In the above embodiment, the information processing apparatus 1 has been described as a mobile terminal. However, for example, the information processing apparatus 1 may be installed at a position where the determination target area can be imaged. When there are a plurality of determination target areas, the determination result may be transmitted to the server device and the determination result may be output from the server device.
また、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Also, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable recording medium such as a CD-ROM, in addition to a ROM, a hard disk, etc. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
その他、情報処理装置を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each device constituting the information processing apparatus can be changed as appropriate without departing from the spirit of the invention.
(付記)
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
撮像手段と、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段と、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段と、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段と、
前記判定手段による判定結果を出力する出力手段と、
を備える情報処理装置。
<請求項2>
前記判定手段は、前記測定手段による測定結果と前記予め定められた項目の基準値とに基づいて、前記判定対象物の整理整頓度を判定する請求項1に記載の情報処理装置。
<請求項3>
前記判定手段は、前記撮像画像に複数の判定対象物が含まれている場合、前記複数の判定対象物の整理整頓度を演算処理した値に基づいて、前記撮像手段により撮像されたエリアの総合的な整理整頓度を判定する請求項1又は2に記載の情報処理装置。
<請求項4>
前記判定対象物は、机、床、キャビネット、書類のうち少なくとも1つを含む請求項1〜3の何れか一項に記載の情報処理装置。
<請求項5>
前記予め定められた項目は、前記判定対象物が机の場合、当該机上のスペースの割合を含み、前記判定対象物が床の場合、当該床のスペースの割合を含み、前記判定対象物がキャビネットである場合、当該キャビネット上のスペースの割合を含み、前記判定対象物が書類である場合、当該書類の高さを含む請求項4に記載の情報処理装置。
<請求項6>
前記抽出手段は、更に、前記撮像手段により撮像された撮像画像から危険度の判定対象物の画像を抽出し、
前記測定手段は、更に、前記危険度の判定対象物の画像から予め定められた危険度判定項目の値を測定し、
前記判定手段は、前記危険度判定項目の値の測定結果に基づいて、前記危険度の判定対象物の危険度を判定する請求項1〜5の何れか一項に記載の情報処理装置。
<請求項7>
前記危険度の判定対象物はキャビネットであり、
前記予め定められた危険度判定項目は、キャビネットからの荷物のはみ出し幅、キャビネット上の荷物の高さ、キャビネット上のスペースの割合の少なくとも1つを含む請求項6に記載の情報処理装置。
<請求項8>
撮像手段により撮像する工程と、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する工程と、
前記抽出された判定対象物の画像から予め定められた項目の値を測定する工程と、
前記測定結果に基づいて、前記判定対象物の整理整頓度を判定する工程と、
前記判定結果を出力する工程と、
を含む整理整頓度判定方法。
<請求項9>
撮像手段を備える情報処理装置に用いられるコンピュータを、
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段、
前記判定手段による判定結果を出力する出力手段、
として機能させるためのプログラム。
(Appendix)
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
Imaging means;
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring the value of a predetermined item from the image of the determination object extracted by the extracting means;
Based on the measurement result by the measurement means, a determination means for determining the degree of organization of the determination object,
An output means for outputting a determination result by the determination means;
An information processing apparatus comprising:
<Claim 2>
The information processing apparatus according to claim 1, wherein the determination unit determines a degree of organization of the determination target based on a measurement result obtained by the measurement unit and a reference value of the predetermined item.
<Claim 3>
In the case where a plurality of determination objects are included in the captured image, the determination unit is configured to calculate a total of areas captured by the imaging unit based on a value obtained by calculating a degree of ordering of the plurality of determination objects. The information processing apparatus according to claim 1, wherein a general organization degree is determined.
<Claim 4>
The information processing apparatus according to claim 1, wherein the determination target includes at least one of a desk, a floor, a cabinet, and a document.
<Claim 5>
The predetermined item includes a ratio of space on the desk when the determination target is a desk, and includes a ratio of space on the floor when the determination target is a floor, and the determination target is a cabinet. The information processing apparatus according to claim 4, wherein the information processing apparatus includes a ratio of a space on the cabinet, and includes a height of the document when the determination target is a document.
<Claim 6>
The extraction unit further extracts an image of the risk determination target object from the captured image captured by the imaging unit,
The measuring means further measures a value of a predetermined risk determination item from an image of the risk determination target object,
The information processing apparatus according to any one of claims 1 to 5, wherein the determination unit determines a risk level of the risk determination target object based on a measurement result of a value of the risk level determination item.
<Claim 7>
The risk determination target is a cabinet,
The information processing apparatus according to claim 6, wherein the predetermined risk determination item includes at least one of a protruding width of the luggage from the cabinet, a height of the luggage on the cabinet, and a ratio of a space on the cabinet.
<Claim 8>
Imaging with imaging means;
Extracting an image of a determination target of the degree of order and arrangement from a captured image captured by the imaging unit;
Measuring a value of a predetermined item from the extracted image of the determination object;
A step of determining a degree of organization of the determination object based on the measurement result;
Outputting the determination result;
A method for determining the degree of order and order.
<Claim 9>
A computer used in an information processing apparatus including an imaging unit,
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring a value of a predetermined item from the image of the determination object extracted by the extracting means;
A determination unit for determining a degree of organization of the determination target based on a measurement result by the measurement unit;
Output means for outputting a determination result by the determination means;
Program to function as.
1 情報処理装置
10 CPU
11 RAM
12 記憶部
121 安全衛生度判定ソフトウエア
121a 基準値登録モジュール
121b ランク登録モジュール
121c カメラ制御モジュール
121d 画像比較モジュール
121e 測定結果集計モジュール
121f 判定結果出力モジュール
122 基準値データテーブル
123 ランク判定テーブル
124 参考画像データベース
125 撮像画像データベース
126 判定結果データベース
13 通信部
14 表示部
15 操作部
16 カメラ
1
11 RAM
12
Claims (9)
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段と、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段と、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段と、
前記判定手段による判定結果を出力する出力手段と、
を備える情報処理装置。 Imaging means;
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring the value of a predetermined item from the image of the determination object extracted by the extracting means;
Based on the measurement result by the measurement means, a determination means for determining the degree of organization of the determination object,
An output means for outputting a determination result by the determination means;
An information processing apparatus comprising:
前記測定手段は、更に、前記危険度の判定対象物の画像から予め定められた危険度判定項目の値を測定し、
前記判定手段は、前記危険度判定項目の値の測定結果に基づいて、前記危険度の判定対象物の危険度を判定する請求項1〜5の何れか一項に記載の情報処理装置。 The extraction unit further extracts an image of the risk determination target object from the captured image captured by the imaging unit,
The measuring means further measures a value of a predetermined risk determination item from an image of the risk determination target object,
The information processing apparatus according to any one of claims 1 to 5, wherein the determination unit determines a risk level of the risk determination target object based on a measurement result of a value of the risk level determination item.
前記予め定められた危険度判定項目は、キャビネットからの荷物のはみ出し幅、キャビネット上の荷物の高さ、キャビネット上のスペースの割合の少なくとも1つを含む請求項6に記載の情報処理装置。 The risk determination target is a cabinet,
The information processing apparatus according to claim 6, wherein the predetermined risk determination item includes at least one of a protruding width of the luggage from the cabinet, a height of the luggage on the cabinet, and a ratio of a space on the cabinet.
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する工程と、
前記抽出された判定対象物の画像から予め定められた項目の値を測定する工程と、
前記測定結果に基づいて、前記判定対象物の整理整頓度を判定する工程と、
前記判定結果を出力する工程と、
を含む整理整頓度判定方法。 Imaging with imaging means;
Extracting an image of a determination target of the degree of order and arrangement from a captured image captured by the imaging unit;
Measuring a value of a predetermined item from the extracted image of the determination object;
A step of determining a degree of organization of the determination object based on the measurement result;
Outputting the determination result;
A method for determining the degree of order and order.
前記撮像手段により撮像された撮像画像から整理整頓度の判定対象物の画像を抽出する抽出手段、
前記抽出手段により抽出された判定対象物の画像から予め定められた項目の値を測定する測定手段、
前記測定手段による測定結果に基づいて、前記判定対象物の整理整頓度を判定する判定手段、
前記判定手段による判定結果を出力する出力手段、
として機能させるためのプログラム。 A computer used in an information processing apparatus including an imaging unit,
Extraction means for extracting an image of a determination target of the degree of order and order from a captured image captured by the imaging means;
Measuring means for measuring a value of a predetermined item from the image of the determination object extracted by the extracting means;
A determination unit for determining a degree of organization of the determination target based on a measurement result by the measurement unit;
Output means for outputting a determination result by the determination means;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013036509A JP2014164629A (en) | 2013-02-27 | 2013-02-27 | Information processor, and degree of putting in order determination method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013036509A JP2014164629A (en) | 2013-02-27 | 2013-02-27 | Information processor, and degree of putting in order determination method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014164629A true JP2014164629A (en) | 2014-09-08 |
JP2014164629A5 JP2014164629A5 (en) | 2016-04-07 |
Family
ID=51615158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013036509A Pending JP2014164629A (en) | 2013-02-27 | 2013-02-27 | Information processor, and degree of putting in order determination method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014164629A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016128977A (en) * | 2015-01-09 | 2016-07-14 | 富士通株式会社 | Monitoring method of changing tendency in disorderliness, monitoring program of changing tendency in disorderliness and monitor system of tendency changing tendency in disorderliness |
JP2019113896A (en) * | 2017-12-20 | 2019-07-11 | ヤフー株式会社 | Device, method, and program for processing information |
WO2019146205A1 (en) | 2018-01-23 | 2019-08-01 | ソニー株式会社 | Information processing device, information processing method, and recording medium |
CN111210100A (en) * | 2018-11-21 | 2020-05-29 | 本田技研工业株式会社 | Evaluation system, evaluation method, and storage medium |
JP2020130217A (en) * | 2019-02-13 | 2020-08-31 | トヨタホーム株式会社 | Determination system for inside-building state |
JP2021051346A (en) * | 2019-09-20 | 2021-04-01 | 旭化成ホームズ株式会社 | Cleanup support device, cleanup support program and cleanup support method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000306077A (en) * | 1999-04-21 | 2000-11-02 | Hitachi Zosen Corp | Book managing facility |
JP2001184568A (en) * | 1999-12-27 | 2001-07-06 | Minolta Co Ltd | Security system with arrangement condition monitoring function for inside of space |
US20090121017A1 (en) * | 2007-11-08 | 2009-05-14 | International Business Machines Corporation | Using Cameras to Monitor Actual Inventory |
JP2013025523A (en) * | 2011-07-20 | 2013-02-04 | Hitachi Kokusai Electric Inc | Monitoring system and congestion rate calculation method |
-
2013
- 2013-02-27 JP JP2013036509A patent/JP2014164629A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000306077A (en) * | 1999-04-21 | 2000-11-02 | Hitachi Zosen Corp | Book managing facility |
JP2001184568A (en) * | 1999-12-27 | 2001-07-06 | Minolta Co Ltd | Security system with arrangement condition monitoring function for inside of space |
US20090121017A1 (en) * | 2007-11-08 | 2009-05-14 | International Business Machines Corporation | Using Cameras to Monitor Actual Inventory |
JP2013025523A (en) * | 2011-07-20 | 2013-02-04 | Hitachi Kokusai Electric Inc | Monitoring system and congestion rate calculation method |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016128977A (en) * | 2015-01-09 | 2016-07-14 | 富士通株式会社 | Monitoring method of changing tendency in disorderliness, monitoring program of changing tendency in disorderliness and monitor system of tendency changing tendency in disorderliness |
JP2019113896A (en) * | 2017-12-20 | 2019-07-11 | ヤフー株式会社 | Device, method, and program for processing information |
WO2019146205A1 (en) | 2018-01-23 | 2019-08-01 | ソニー株式会社 | Information processing device, information processing method, and recording medium |
US11868405B2 (en) | 2018-01-23 | 2024-01-09 | Sony Corporation | Information processor, information processing method, and recording medium |
JP7361466B2 (en) | 2018-11-21 | 2023-10-16 | 本田技研工業株式会社 | Evaluation methods and programs |
US11335103B2 (en) | 2018-11-21 | 2022-05-17 | Honda Motor Co., Ltd. | Evaluation system, evaluation method, and storage medium |
JP2020086762A (en) * | 2018-11-21 | 2020-06-04 | 本田技研工業株式会社 | Evaluation system, evaluation method, and program |
CN111210100A (en) * | 2018-11-21 | 2020-05-29 | 本田技研工业株式会社 | Evaluation system, evaluation method, and storage medium |
CN111210100B (en) * | 2018-11-21 | 2024-04-05 | 本田技研工业株式会社 | Evaluation system, evaluation method, and storage medium |
JP2020130217A (en) * | 2019-02-13 | 2020-08-31 | トヨタホーム株式会社 | Determination system for inside-building state |
JP7202207B2 (en) | 2019-02-13 | 2023-01-11 | トヨタホーム株式会社 | In-building condition determination system |
JP2021051346A (en) * | 2019-09-20 | 2021-04-01 | 旭化成ホームズ株式会社 | Cleanup support device, cleanup support program and cleanup support method |
JP7490347B2 (en) | 2019-09-20 | 2024-05-27 | 旭化成ホームズ株式会社 | Tidying up support device, tidying up support program, and tidying up support method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014164629A (en) | Information processor, and degree of putting in order determination method and program | |
US9507473B2 (en) | Method for processing touch operation and mobile terminal | |
US9332117B2 (en) | Information processing device, information processing method, and program | |
CN102792338A (en) | Information processing device, information processing method, and program | |
KR101375018B1 (en) | Apparatus and method for presenting information of food using image acquisition | |
CN104081438B (en) | The treatment of name bubble | |
JP2015090524A5 (en) | ||
EP2631752A1 (en) | Menu display device, menu display control method, program and information storage medium | |
TWI665600B (en) | Electronic device and touch method | |
US20150324557A1 (en) | Electronic device, unlocking method, and non-transitory storage medium | |
US20140115725A1 (en) | File using restriction method, user device and computer-readable storage | |
JP6531368B2 (en) | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, PROCESSING METHOD, AND PROGRAM | |
US20170315964A1 (en) | Web page reformatting method and apparatus, computing device and non-transitory machine readable storage medium | |
US9886698B2 (en) | Augmented reality product brochure application | |
JP5103593B2 (en) | Order management apparatus, order management system and control program | |
JP2006146628A5 (en) | ||
JP2008109290A5 (en) | ||
CN110007832A (en) | Information terminal device, information processing system and be stored with display control program computer-readable non-transitory storage medium | |
US20130321579A1 (en) | System and Method for Scanning and Analyzing a Users Ergonomic Characteristics | |
US20150052477A1 (en) | Enlargement and reduction of data with a stylus | |
JP6589062B2 (en) | Vacant seat management system, vacant seat management method and program | |
JP2009065567A5 (en) | ||
JP2009230299A (en) | Related document presentation system and program | |
JP2020008272A (en) | Control method and information processing device | |
JPWO2018180201A1 (en) | Similar face image retrieval system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170131 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170425 |