JP2024518453A - ペットの識別のためのオブジェクトを撮影するための方法及び電子装置 - Google Patents
ペットの識別のためのオブジェクトを撮影するための方法及び電子装置 Download PDFInfo
- Publication number
- JP2024518453A JP2024518453A JP2023568646A JP2023568646A JP2024518453A JP 2024518453 A JP2024518453 A JP 2024518453A JP 2023568646 A JP2023568646 A JP 2023568646A JP 2023568646 A JP2023568646 A JP 2023568646A JP 2024518453 A JP2024518453 A JP 2024518453A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pet
- quality
- identification
- identifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 21
- 238000001514 detection method Methods 0.000 claims description 53
- 210000001331 nose Anatomy 0.000 description 127
- 241000282472 Canis lupus familiaris Species 0.000 description 39
- 230000008569 process Effects 0.000 description 35
- 241000894007 species Species 0.000 description 31
- 241001465754 Metazoa Species 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 13
- 230000009466 transformation Effects 0.000 description 12
- 238000012805 post-processing Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000037303 wrinkles Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000000214 mouth Anatomy 0.000 description 3
- 241000699800 Cricetinae Species 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000282461 Canis lupus Species 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 210000002105 tongue Anatomy 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/50—Maintenance of biometric data or enrolment thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/617—Upgrading or updating of programs or applications for camera control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/634—Warning indications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
本発明は、ペットの識別のためのオブジェクトの画像品質を向上させることができる方法及び電子装置を提供する。本発明によるペットの識別のためのオブジェクトを撮影するための方法は、前記ペットの含まれた画像を取得するステップと、前記画像から前記ペットの識別のためのオブジェクトを検出するステップと、前記検出されたオブジェクトの位置に焦点を設定した状態で次の画像を撮影するステップと、を含む。本発明によれば、撮影された画像からペットの識別のためのオブジェクトを検出し、当該オブジェクトの位置に持続的に焦点が位置するようにすることで、より鮮明な品質のオブジェクト識別用イメージが取得され、それにより、人工知能に基づく学習又は識別に使用可能なペットのオブジェクト識別用イメージを蓄積することができる。
【選択図】図3
【選択図】図3
Description
本発明は、ペットの識別のためのオブジェクトを撮影するための方法及び電子装置に関し、より具体的には、人工知能に基づく学習又は識別に適したペットの識別用オブジェクトのイメージを取得するための方法及び電子装置に関する。
現代社会において人と共に生活しながら情緒的に頼ることができるペットへの需要が高まっている。これにより、ペットに対する健康管理などのために多様なペットについての情報をデータベース化して管理する必要性が増加している。ペットを管理するために、人の指紋のようにペットの識別情報が必要であり、ペットに応じて使用できるオブジェクトがそれぞれ定義できる。例えば、イヌの場合、鼻紋(鼻のシワの形状)がそれぞれ異なるので、イヌ毎に鼻紋を識別情報として使用することができる。
図1の(a)に示すように、鼻紋を登録する方法は、人の指紋又は顔面を登録するのと同様に、ペットの鼻を含む顔面を撮影し(S110)、及び鼻紋を含むイメージをデータベースに格納及び登録する過程(S120)によって行われる。また、鼻紋を照会する方法は、図1の(b)に示すように、ペットの鼻紋を撮影し(S130)、撮影された鼻紋と一致する鼻紋及びこれに関連する情報を探索し(S140)、及び撮影された鼻紋と一致する情報を出力する過程(S150)によって行われ得る。図1に示すように、ペットの鼻紋を登録し照会する過程によって各ペットを識別し、当該ペットの情報を管理することができる。ペットの鼻紋情報は、データベースに格納され、AIに基づく学習又は識別のためのデータとして使用できる。
しかし、ペットの鼻紋を取得し格納する際に、幾つかの問題点が存在する。
まず、写真は、撮影角度、焦点、距離、サイズ、環境などによって認識が難しいことがある。人の顔面認識技術を鼻紋認識に適用しようとする試みがあったが、人の顔面情報は、十分なデータが蓄積されたのに対し、ペットの鼻紋情報は十分なデータが確保されないため、認識率が低いという問題点がある。具体的には、AIに基づく認識が行われるためには、機械が学習することが可能な形態に加工された学習データが必要であるが、ペットの鼻紋は十分なデータが蓄積されないため、鼻紋の認識に困難がある。
また、ペットの鼻紋認識のためには、鮮明な鼻のシワを有するイメージが要求されるが、人間とは異なり、ペットはしばらく動作を止めるような行為を行うことができないため、鮮明な鼻のシワのイメージを取得することが容易ではない。例えば、イヌは、顔面を動き続けたり舌をペロペロしたりするため、所望の品質の鼻紋イメージを取得することが非常に難しい。例えば、鼻紋認識のために鼻のシワが鮮明に撮影された画像が要求されるが、実際に撮影されたイメージはほとんど揺れなどにより鼻のシワが鮮明に撮影されない場合が多い。かかる問題を解決するために、イヌの鼻を強制的に固定させた状態で撮影する方法が考慮されているが、ペットに強制的な行為を行うようにするため不適切であると評価されている。
本発明は、ペットの識別のためのオブジェクトの画像品質を向上させることができる方法及び電子装置を提供する。
本発明の解決課題は、上述したものに限定されず、上述していない他の解決課題は、以降の記載から当業者に明確に理解できるであろう。
本発明によるペットの識別のためのオブジェクトを撮影するための方法は、前記ペットの含まれた画像を取得するステップと、前記画像から前記ペットの識別のためのオブジェクトを検出するステップと、前記検出されたオブジェクトの位置に焦点を設定した状態で次の画像を撮影するステップと、を含む。
本発明によれば、ペットの含まれた画像を取得するステップは、以前のフレームに撮影されたイメージから検出された前記オブジェクトの位置に焦点が設定された状態で前記ペットを撮影して前記画像を生成するステップを含むことができる。
本発明によれば、前記画像から前記ペットの識別のためのオブジェクトを検出するステップは、前記画像から前記ペットの種を決定するための第1特徴領域を設定するステップと、前記第1特徴領域内で前記ペットの種に応じて前記ペットの識別のためのオブジェクトを含む第2特徴領域を設定するステップと、を含むことができる。
本発明によれば、前記第2特徴領域を設定するステップは、前記ペットの識別のためのオブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断するステップを含むことができる。
本発明によれば、前記オブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断するステップは、前記オブジェクトのイメージの品質が基準条件を満足するか否かを判断するステップと、前記品質が基準条件を満足する場合、前記オブジェクトのイメージをサーバに伝送するステップと、前記品質が基準条件を満足しない場合、前記オブジェクトのイメージを捨て、次の画像に対する撮影を行うステップと、を含むことができる。
本発明によるペットの識別のためのオブジェクトを撮影するための方法は、前記ペットの含まれた画像を取得するステップと、前記画像から前記ペットの識別のためのオブジェクトを検出するステップと、前記オブジェクトの位置に焦点を設定するステップと、前記焦点が設定されたオブジェクトの位置にオブジェクト検出状態を示すグラフィックエレメントがオーバーレイされた前記画像を出力するステップと、を含む。
本発明によれば、前記画像を出力するステップは、前記オブジェクトのイメージの品質が基準条件を満足するか否かを判断するステップと、前記オブジェクトのイメージの品質が基準条件を満足する場合、良好品質状態を示す第1グラフィックエレメントを前記オブジェクトにオーバーレイするステップと、前記オブジェクトの品質が基準条件を満足しない場合、不良品質状態を示す第2グラフィックエレメントを前記オブジェクトにオーバーレイするステップと、を含むことができる。
本発明によれば、前記画像を出力するステップは、前記画像において前記オブジェクトの撮影品質状態を示すスコア情報を出力するステップを含むことができる。
本発明によれば、前記ペットの識別のためのオブジェクトを撮影する方法では、前記画像を出力するステップは、前記オブジェクトのイメージの品質状態に応じて良好なオブジェクトイメージが撮影されるようにユーザにフィードバックを提供するステップをさらに含むことができる。
本発明によれば、前記ペットの含まれた画像を取得するステップは、以前のフレームに撮影されたイメージから検出された前記オブジェクトの位置に焦点が設定された状態で前記ペットを撮影して前記画像を生成するステップを含むことができる。
本発明によるペットの識別のためのオブジェクトを撮影するための電子装置は、前記ペットの含まれた原本画像を生成するカメラと、前記画像から前記ペットの識別のためのオブジェクトを検出し、前記検出されたオブジェクトの位置に焦点を設定した状態で次の画像を撮影するように前記カメラを制御するプロセッサと、を含む。
本発明によれば、前記プロセッサがペットの含まれた画像を取得するステップは、以前のフレームに撮影されたイメージから検出された前記オブジェクトの位置に焦点が設定された状態で前記ペットを撮影して前記画像を生成するように前記カメラを制御することができる。
本発明によれば、前記プロセッサは、前記画像から前記ペットの種を決定するための第1特徴領域を設定し、前記第1特徴領域内で前記ペットの識別のためのオブジェクトを含む第2特徴領域を設定することができる。
本発明によれば、前記プロセッサは、前記ペットの識別のためのオブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断することができる。
本発明によれば、前記プロセッサは、前記オブジェクトのイメージの品質が基準条件を満足するか否かを判断し、前記品質が基準条件を満足する場合、前記オブジェクトのイメージをサーバに伝送し、前記品質が基準条件を満足しない場合、前記オブジェクトのイメージを捨て、次の画像に対する撮影を行うように前記カメラを制御することができる。
本発明によるペットの識別のためのオブジェクトを撮影するための電子装置は、前記撮影中のペットの画像を出力するディスプレイをさらに含むことができる。
本発明によれば、前記プロセッサは、前記検出されたオブジェクトの位置にオブジェクト検出状態を示すグラフィックエレメントがオーバーレイされた前記画像をディスプレイに出力することができる。
本発明によれば、前記プロセッサは、前記オブジェクトのイメージの品質が基準条件を満足するか否かを判断し、前記オブジェクトのイメージの品質が基準条件を満足する場合、良好品質状態を示す第1グラフィックエレメントを前記オブジェクトにオーバーレイし、前記オブジェクトの品質が基準条件を満足しない場合、不良品質状態を示す第2グラフィックエレメントを前記オブジェクトにオーバーレイすることができる。
本発明によれば、前記プロセッサは、前記画像において前記オブジェクトの撮影品質状態を示すスコア情報を前記ディスプレイを介して出力することができる。
本発明によれば、前記プロセッサは、前記オブジェクトのイメージの品質状態に応じて良好なオブジェクトイメージが撮影されるようにユーザにフィードバックを提供することができる。
本発明によれば、撮影された画像からペットの識別のためのオブジェクトを検出し、当該オブジェクトの位置に持続的に焦点が位置するようにすることで、より鮮明な品質のオブジェクト識別用イメージが取得され、それにより、人工知能に基づく学習又は識別に使用可能なペットのオブジェクト識別用イメージ(鼻紋イメージ)を蓄積することができる。
本発明の効果は、上述したものに限定されず、上述していない他の効果は、以降の記載から当業者に明確に理解できるであろう。
以下、添付図面を参照して、本発明の実施形態について、本発明の属する技術分野における通常の知識を有する者が容易に実施し得るように詳細に説明する。本発明は、種々の異なる形態で実現でき、ここで説明する実施形態に限定されない。
本発明を明確に説明するために、説明と関係のない部分は省略し、明細書全体にわたり、同一又は類似の構成要素に対しては同一の参照符号を付す。
また、幾つかの実施形態において、同一の構成を有する構成要素については、同一の符号を用いて代表的な実施形態でのみ説明し、それ以外の他の実施形態では、代表的な実施形態とは異なる構成についてのみ説明する。
明細書全体において、ある部分が他の部分と「連結(又は結合)」されているとするとき、これは、「直接的に連結(又は結合)」されている場合だけでなく、別の部材を挟んで「間接的に連結(又は結合)」されている場合も含む。また、ある部分がある構成要素を「含む」とするとき、これは、特に反対の記載がない限り、他の構成要素を除くのではなく、他の構成要素をさらに含むことができることを意味する。
他に定義されない限り、技術的又は科学的用語を含んでここで使用されるすべての用語は、本発明の属する技術分野における通常の知識を有する者によって一般に理解されるのと同じ意味を持っている。一般的に使用される辞書に定義されている用語は、関連技術の文脈上の意味と一致する意味を有すると解釈されるべきであり、本出願において明確に定義しない限り、理想的又は過度に形式的な意味で解釈されない。
本文書では、イヌの鼻のシワの形状(鼻紋)を活用して識別情報を抽出する内容を中心に説明するが、本発明において、ペットの範囲はイヌに限定されず、また、識別情報として使用される特徴として、鼻紋に限定されず、様々なペットの身体的特徴が使用できる。
前述したように、AIに基づく学習又は識別に適したペットの鼻紋イメージが十分ではなく、ペットの鼻紋イメージはその品質が低い可能性が大きいため、AIに基づく学習又は識別のために鼻紋イメージを選別的にデータベースに格納する必要がある。
図2は、本発明による学習又は識別用鼻紋イメージの適合度判断が適用されたAIに基づくペットの鼻紋管理のための手順を示す。本発明は、ペットの鼻紋を撮影した後、撮影された鼻紋イメージがAIに基づく学習又は識別のためのデータとして適するか否かを先に判断し、適すると判断された場合、AIに基づく学習又は認識のためのサーバに伝送及び格納して以後の学習又は識別のためのデータとして使用する。
図2に示すように、本発明による鼻紋管理手順は、鼻紋取得手順と鼻紋認識手順とを含む
本発明によれば、新規にペットの鼻紋を登録するとき、ペットの含まれた画像を撮影した後、ペットの顔領域から鼻紋イメージを抽出し、特に、当該鼻紋イメージが当該ペットの識別又は学習のために適するか否かを先に判断する。撮影されたイメージが識別又は学習に適すると判断された場合、当該イメージがサーバ(人工知能ニューラルネットワーク)へ伝送されてデータベースに格納される。
鼻紋を介してペットの識別情報を照会する場合、同様に、ペットの含まれた画像を撮影した後、ペットの顔領域から鼻紋イメージを抽出し、特に、当該鼻紋イメージが当該ペットの識別又は学習に適するか否かを先に判断する。撮影されたイメージが識別又は学習に適すると判断された場合、当該イメージがサーバに伝送され、予め格納された鼻紋イメージとのマッチングを介して当該ペットの識別情報を抽出する。
鼻紋登録手続の場合、図2の(a)に示すように、ペットを撮影し(S205)、撮影されたペットのイメージから先ず顔領域(以後、第1特徴領域として説明される)を検出し(S210)、顔領域内で鼻が占める領域(以後、第2特徴領域として説明される)を検出し、撮影されたイメージが学習又は識別用に適するかに対する品質検査を介して鼻紋イメージを出力し(S215)、出力されたイメージが人工ニューラルネットワークを構成するサーバに伝送されて格納及び登録される(S220)。
鼻紋照会手順の場合、図2の(b)に示すように、ペットを撮影し(S230)、ペットのイメージから顔領域を検出し(S235)、顔領域内で鼻が占める領域を検出し、撮影されたイメージが学習又は識別用に適するかに対する品質検査を介して鼻紋イメージを出力するが(S240)、これは、鼻紋登録手順と類似している。以後の手順は、出力された鼻紋イメージを予め格納及び学習された鼻紋イメージと比較して一致する情報を探索する過程(S245)と、探索結果に対する出力過程(S250)が行われる。
図3は、本発明によるペットの鼻紋管理システムでペットの鼻に対応するオブジェクトを検出するための手順を示す。
図3を参照すると、まず、ペットを撮影して初期イメージが生成され(S305)、初期イメージから顔領域を検出するステップが先に行われる(S310)。その後、顔領域内でペットの種を考慮して鼻領域を検出するステップが行われる(S315)。1次的に顔領域を先に検出し、2次的に鼻領域を検出することは、階段式(cascaded)検出によってすべての種を考慮して鼻領域を検出することよりも演算複雑度を低めることができ、検出正確度も向上させることができるためである。その後、検出された鼻領域のイメージが今後の鼻紋の識別又は学習に適するか否かを検査するための品質検査が行われ(S320)、品質検査結果、適したイメージと判断された場合、当該イメージをサーバに伝送して鼻紋の識別に使用されるか、或いは今後の学習又は識別のために格納されることができる(S325)。
また、本発明によれば、イヌの鼻のシワ(鼻紋)のようにペットの識別のためのオブジェクトのイメージがぼやけて撮影されないよう、検出された鼻領域に焦点が合わせられるようにカメラを制御することができる(S330)。これは、カメラの焦点が鼻領域に合うようにすることで、鼻の焦点がずれることによりイメージの品質が低下することを防止するためである。
図4は、本発明が適用されたペットの鼻紋イメージを取得するためのUI(User Interface)画面の例を示す。図4は、様々なペットのうちイヌの鼻紋を取得するための場合を示す。
図4を参照すると、撮影中の画像からペットの種を識別して、現在撮影中のペットがイヌであるか否かを判断する。撮影中のペットがイヌでない場合、図4の(a)のように「イヌを見つけることができません」のような文章を出力し、撮影中のペットがイヌである場合、イヌの鼻紋を取得するための手順を行う。撮影中のペットがイヌであるか否かを判断するために、画像に含まれたペットの顔領域を先に抽出し、顔領域に含まれたイメージを既存の学習されたデータと比較して当該ペットの種(species)を決定することができる。
以後、図4の(b)乃至(e)のように、イヌの顔においてイヌの鼻に該当する領域を設定した後、鼻に該当する領域に焦点を合わせて撮影が行われることができる。すなわち、ペットの識別のためのオブジェクトに該当する領域の位置(中心点)に焦点が合わせられるようにカメラを制御することができる。また、ユーザに現在追跡中のオブジェクト(例:鼻)に焦点が合わせられて撮影されていることをフィードバックするために、追跡中のオブジェクトの位置にグラフィックエレメントをオーバーレイ(overlay)することができる。追跡中のオブジェクトの位置に当該オブジェクトの検出状態を示すグラフィックエレメントを表示することにより、現在撮影中のペットでオブジェクト認識が行われていることがユーザに認知できる。
図4の(b)乃至(e)に示すように、現在撮影中のオブジェクトのイメージ品質が良好な場合(オブジェクトのイメージの品質が基準条件を満足する場合)、良好品質状態を示す第1グラフィックエレメント410a(例:笑うアイコン又は緑色アイコン)をオブジェクトにオーバーレイして出力することができる。現在撮影中のオブジェクトのイメージ品質が不良である場合(オブジェクトのイメージの品質が基準条件を満足しない場合)、不良品質状態を示す第2グラフィックエレメント410b(例えば、泣くアイコン又は赤色アイコン)をオブジェクトにオーバーレイして出力することができる。
図4に示すように、イヌが持続的に動く場合にも、イヌの鼻を追跡しながら鼻に焦点を合わせて撮影が行われることができる。このとき、各撮影された画像において、イヌの鼻紋イメージがペットの識別又は学習のために適するか否かを判断し、適合性に対する程度が出力されてもよい。
例えば、撮影されたイヌの鼻紋イメージがペットの識別又は学習のために適するかに対する程度が数値として計算でき、適合度に対する数値に応じて、適合度が低いほど「Bad」方向に、適合度が高いほど「Good」方向にゲージが満たされる形態のスコア情報420が出力され得る。すなわち、画像においてオブジェクトの撮影品質を示すスコア情報420が出力されることができる。
また、現在撮影されている鼻紋のイメージに対する品質評価(サイズ、明るさ、鮮明度など)を行い、人工知能に基づく識別又は学習に適した鼻紋イメージが撮影されるようにユーザにフィードバックが提供されることができる。ユーザフィードバックとして、ユーザにペットのオブジェクトが適切に撮影されるように案内するメッセージ430を出力することができる。例えば、イヌの鼻紋イメージのサイズが基準値より小さい場合、より大きいサイズの鼻紋イメージが撮影されるように、図4の(c)に示すように、「イヌの鼻の距離を合わせてください」のようなメッセージを出力することができる。ペットの識別のためのオブジェクト(例:イヌの鼻紋)を撮影する過程で、ユーザに画像が適切に撮影されるようにユーザに案内するフィードバックとして、音声メッセージ(例:「イヌの鼻の距離を合わせてください」)がスピーカを介して出力されることができる。或いは、ペットの識別のためのオブジェクトが適切に撮影されるようにハプティックモジュールは振動を発生させることにより、ユーザにフィードバックを提供することができる。例えば、カメラ1010からのペットの距離があまり遠く或いは近くなった場合、ハプティックモジュールは振動を発生させることにより、ユーザに適切な距離が合わせられるようにすることができる
また、ペットの識別のために適した品質を有するオブジェクトのイメージが取得される進行程度を示す進行率情報440が出力されることができる。例えば、適した品質を有する鼻紋イメージが5枚必要であり、現在までに適したイメージが1枚取得された場合、図4の如く、進行率が25%であることを示す進行率情報440が出力されることができる。
イヌの鼻紋イメージが十分に取得された場合、撮影を終了し、当該イヌの鼻紋イメージと共に識別情報をデータベースに格納するか、或いは当該イヌの識別情報を出力することができる。
本発明において、ペットの顔領域を先に検出した後、顔領域内で鼻領域を検出する。これは、演算複雑度を低減させながらオブジェクト検出難易度を下げるためである。画像を撮影する過程で検出しようとするオブジェクト以外の物体、又は不要であるか或いは誤った情報が画像に含まれることができる。したがって、本発明は、撮影中の画像に所望のオブジェクト(ペットの鼻)が存在するか否かを先に判断する。
また、ペットの鼻紋を識別するためには、一定水準以上の解像度を有する画像が要求されるが、画像の解像度が高くなるほど画像の処理のための演算量が増加するという問題がある。また、ペットの種類が増加するにつれて、各ペットの種類別に学習方法が異なるため、人工知能の演算難易度がさらに増加するという問題がある。特に、類似した種類の動物は、類似した形状を有するため(例:イヌの鼻とオオカミの鼻とは類似する)、類似した動物に対して動物の種類と共に鼻を分類することは非常に高い演算難易度を有することができる。
したがって、本発明は、このような演算複雑度を低減させるために、階段式(cascaded)オブジェクト検出方法を使用する。例えば、ペットを撮影しながらペットの顔領域を先に検出した後、ペットの種類を識別し、検出されたペットの顔領域と識別されたペットの種類に基づいて当該ペットの鼻領域を検出する。これは、相対的に演算複雑度の低い低解像度でペットの種類を識別する過程を先に行い、ペットの種類によって決定されたオブジェクト検出方法を適用してペットの顔領域で高解像度を維持し、鼻領域検出を行うのである。したがって、本発明は、相対的に演算複雑度を低減させながらも効果的にペットの鼻領域を検出することができる。
図5は、本発明によるペットの識別のための全般的な画像処理過程を示す。図5に示すように、本発明による入力画像を処理する方法は、カメラから入力画像を受け取るステップ(S505)と、入力画像のサイズを調整して1次処理画像を生成する第1前処理ステップ(S510)と、第1前処理ステップで生成された処理画像から動物の位置と動物の種を検出する第1特徴領域検出ステップ(S515)と、第1特徴領域検出ステップの結果物から動物画像の第1特徴値を抽出する第1後処理ステップ(S520)と、第1後処理ステップを介して処理された画像からペットの種に応じてペットの識別のためのオブジェクト(例:鼻)を検出するための検出器を決定するステップ(S525)と、ペットの識別のための画像処理のために画像のサイズを調節する第2前処理ステップ(S530)と、第1特徴検出ステップで検出することが可能な動物の種にそれぞれ対応する少なくとも1つの第2特徴領域検出ステップ(S535)と、それぞれの第2特徴領域検出ステップに対応して動物画像の第2特徴値を抽出する第2後処理ステップ(S540)と、を含む。
第1前処理ステップ
原本画像に対する第1前処理を適用するステップ(S510)は、原本画像のサイズ、比率、方向などを調節してオブジェクトの検出に適した形態に画像を変換するステップである。
カメラ技術の発達に伴い、入力画像は、大部分が数百万乃至数千万の画素で構成され、このように大きい画像を直接処理することは好ましくない。オブジェクト検出が効率よく作動するためには、入力画像の処理に適するように前処理過程を行わなければならない。このような過程は、数学的には座標系変換で行われる。
入力画像内の任意の4点を処理画像の4つの頂点に対応させ、任意の座標系変換過程を経ることにより、任意の処理画像を生成することができるのは明白である。ところが、座標系変換過程において任意の非線形変換関数を使用する場合、特徴領域検出器の結果として取得した境界ボックスから入力画像の特徴領域を得る逆変換が可能でなければならない。例えば、入力画像の任意の4点を処理画像の4つの頂点に対応させて線形変換するアフィン変換(Affine Transformation)を使用すると、容易にその逆変換過程を得ることができるので、これを使用することが好ましい。
入力画像内の任意の4点を決定する方法の一例として、入力画像の4つの頂点をそのまま使用する方法が考えられる。或いは、横長さと縦長さが同じ比率で変換されるように、入力画像に余白を付加するか、或いは入力画像の一部を切り取る方法を使用することができる。或いは、入力画像のサイズを縮小させるために、多様な補間方法を適用することができる。
第1特徴領域検出ステップ
本ステップは、前処理された画像内でペットが存在する領域とその動物の種を先に検出することにより、後述する第2特徴領域検出ステップで使用できる第1特徴領域を設定し、併せて各ペットの種に最適化された第2特徴領域検出器を選択することにより、最終的な特徴点検出性能を上げることを目的とする。
本過程において、オブジェクト検出及び分類方法は、関連分野における通常の知識を有する者であれば、どれでも容易に結合することができる。しかし、従来の方法に比べて、人工ニューラルネットワークに基づく方法が性能に優れていることが知られているので、できる限り人工ニューラルネットワークに基づく特徴検出技法を使用することが好ましい。例えば、人工ニューラルネットワークに一枚のイメージに対して様々なサイズの物体を検出するアルゴリズムであるSSD(Single Vision-Shot Multibox Detection)方式の特徴検出器が使用できる。
上述した前処理器によって正規化された入力画像は、人工ニューラルネットワークによって階層的に第1特徴画像乃至第n特徴画像を構成する。このとき、階層ごとに特徴画像を抽出する方法は、人工ニューラルネットワークの学習ステップで機械的に学習できる。
このように抽出された階層的特徴画像は、階層ごとに対応する予め定義されたボックス(Priori Box)リストと結合されて境界ボックス、個体種類、及び信頼度値リストを生成する。このような演算過程も、人工ニューラルネットワークの学習ステップで機械的に学習できる。例えば、その結果値は、下記表1のような形式で返還される。この時、ニューラルネットワークが判断することが可能な種の個数は、ニューラルネットワーク設計ステップで決定され、暗黙的にオブジェクトが存在しない場合、すなわち「背景」が定義される。
このような結果ボックスは、NMS(Non-Maximum Suppression)ステップによって重畳する結果ボックスを併合して、最終的に画像内に存在するオブジェクト検出結果として返還される。NMSは、複数個の特徴領域候補から最終的な特徴領域を導き出す過程であって、特徴領域候補は、図6のような手順によって表1の確率値を考慮して生成できる。
次に、この過程を詳細に説明する。
1.背景を除いたそれぞれの種に対してそれぞれ次の過程を行う。
A.境界ボックスリストにおいて、当該種である確率が特定の閾値よりも低いボックスを除外する。残ったボックスがなければ、結果なしで終了する
B.前記境界ボックスリストにおいて、当該種である確率の最も高いボックスを第1ボックス(第1境界領域)として指定し、境界ボックスリストから除外する。
C.残りの境界ボックスリストに対して、確率の高い順に従ってそれぞれ次の過程を行う。
i.第1ボックスとのIoU(Intersection over Union、積集合対和集合の面積比)を演算する。
ii.IoUが特定閾値よりも高ければ、このボックスは第1ボックスと重畳するボックスである。第1ボックスと併合する。
D.第1ボックスを結果ボックスリストに追加する。
E.境界ボックスリストにボックスが残っていると、残ったボックスを対象として再びCステップから繰り返し行う。
2つのボックスAとBに対して、IoUは、下記数式1のように効果的に演算することができる。
次に、前記過程で第1ボックスと重畳するボックスを併合する方法について説明する。例えば、第1ボックスはそのまま維持し、第2ボックスは境界ボックスリストから削除する方法で併合することができる(Hard NMS)。又は、第1ボックスはそのまま維持し、第2ボックスが特定の種である確率を(0,1)の間の値だけ重み付けて減少させ、減衰された結果値が特定の閾値よりも小さければ、初めて境界ボックスリストから削除する方法で併合することができる(Soft NMS)。
最後に、このように決定された一つ又は複数の境界ボックスに対して、前処理ステップで使用した任意の変換過程に対する逆変換過程を経ることにより、原本画像における特徴領域を得ることができるのは当たり前である。構成によっては、原本画像における特徴領域に一定量の余白を付加することにより、後述する第2検出ステップをよく行うことができるように調整することができる。
第1後処理ステップ
前述した第1特徴領域設定ステップ(S515)で取得された入力画像の各特徴領域に対して、追加的な後処理ステップを行うことにより、第1特徴値を生成することができる。例えば、入力画像の第1特徴領域に対する明るさ情報(第1特徴値)を取得するために、下記数式2のような演算を行うことができる。
このとき、LはBT.601標準によるLuma値であり、VはHSV色空間で定義する明度値である。M、Nは対象特徴領域の横幅と縦高さである。
このように追加的に生成した第1特徴値を用いて、第1特徴領域検出ステップ(S515)で取得した第1特徴領域が本特許と結合される応用分野で使用するのに適するかを予測することができる。追加的に生成される第1特徴値は、応用分野に応じて適切に設計されなければならないのは自明である。応用分野で定義する第1特徴値の条件を満たさない場合、選択的に後述する第2特徴領域設定及びオブジェクト検出ステップを省略するようにシステムを構成することができる。
第2特徴領域検出ステップ
本ステップは、動物が存在する領域から、具体的に応用分野で必要とする特徴領域を抽出することを目的とする。例えば、動物の顔領域から目、鼻、口、耳の位置を検出する応用分野を、例えば、第1特徴領域検出ステップでは動物の顔領域と動物の種情報を先ず区分し、第2特徴領域検出ステップでは動物の種に応じて目、鼻、口、耳の位置を検出することを目的とする。
この過程において、第2特徴領域検出ステップは、それぞれの動物の種に特化された互いに独立した複数個の特徴領域検出器で構成されることができる。例えば、第1特徴領域検出ステップで犬、猫、ハムスターを区分することができれば、3つの第2特徴領域検出器を備え、それぞれを犬、猫、ハムスターに対して特化されるように設計することが好ましい。こうすることにより、個別特徴領域検出器で学習すべき特徴の種類を減少させて学習複雑度を減少させることができ、かつ、学習データ収集の面でもより少ない数字のデータのみでもニューラルネットワーク学習が可能となるのは自明である。
それぞれの第2特徴領域検出器は、互いに独立して構成されるので、通常の知識を有する者であれば、独立した個別検出器を容易に構成することができる。それぞれの特徴領域検出器は、それぞれの種で検出しようとする特徴情報に合わせて個別的に構成することが好ましい。又は、システム構成の複雑度を減少させるために、一部又は全ての第2特徴領域検出器が同じ構造の特徴領域検出器を共有するが、学習パラメータ値を交替することにより、それぞれの種に適するようにシステムを構成する方法を使用することができる。さらに、第2特徴領域検出器として第1特徴領域検出ステップと同じ構造の特徴領域検出器を使用するが、学習パラメータ値とNMS方法のみを交替することにより、システム複雑度をさらに減少させる方法を考慮することもできる。
第1特徴領域検出ステップ及び第1後処理ステップを介して設定された1つ又は複数の特徴領域に対して、第1特徴領域検出ステップで検出した種情報を用いてどの第2特徴領域検出器を使用するか決定し、決定された第2特徴領域検出器を用いて第2特徴領域検出ステップを行う。
まず、前処理過程を行う。この時、座標を変換する過程で、逆変換が可能な変換過程を使用しなければならないのは自明である。第2前処理過程では、入力画像内で検出された第1特徴領域を第2特徴領域検出器の入力画像に変換しなければならないので、変換関数の設計に必要な4つの点は、第1特徴領域の4つの頂点と定義することが好ましい。
第2特徴領域検出器を介して取得した第2特徴領域は、第1特徴領域を用いて検出された値であるので、全体入力画像内で第2特徴領域を演算するときには、第1特徴領域を考慮しなければならない。
第2特徴領域検出器を介して取得した第2特徴領域に対して、第1後処理ステップと同様に追加的な後処理ステップを行うことにより、第2特徴値を生成することができる。例えば、画像の鮮明度を求めるために、ソーベルフィルタ(Sobel filter)を適用するか、或いは特徴領域の間に検出の有無及び相対的な位置関係を用いて、検出しようとする動物の姿勢などの情報を求めることができる。
このように追加的に生成した第2特徴値を用いて、第2オブジェクト検出ステップで取得した特徴領域が本特許と結合される応用分野で使用するのに適するかを予測することができる。追加的に生成される第2特徴値は、応用分野に応じて適切に設計されなければならないのは自明である。応用分野で定義する第2特徴値の条件を満たさない場合、第2検出領域だけでなく、第1検出領域を検出結果から除外するなど、応用分野に適するようにデータを取得することができるように設計することが好ましい。
システム拡張
本発明では、2ステップの検出ステップを構成することにより、第1特徴位置検出ステップでは動物の位置と種を検出し、その結果に基づいて、第2特徴位置検出ステップで使用する検出器を選択するシステムと構成方法の例を挙げた。
このような階段式構成(cascade configuration)は、容易に多層階段式の構成に拡張できる。例えば、第1特徴位置検出ステップでは動物の身体全体を検出し、第2特徴位置検出ステップでは動物の顔の位置と腕脚の位置を検出し、第3特徴位置検出ステップでは顔から目、鼻、口、耳の位置を検出するなどの応用構成が可能である。
このような多層階段式構成を使用することにより、同時に複数階層の特徴位置の取得が可能なシステムを容易に設計することができる。多層階段式システムを設計する際に、層数を決定するには、取得しようとする特徴位置の階層ドメイン、全体システムの動作時間及び複雑度、そしてそれぞれの個別特徴領域検出器を構成するのに必要なリソースなどを考慮すれば最適の階層構造を設計することができるのは自明である。
高品質のペットの識別用オブジェクトイメージ(例:鼻紋イメージ)を取得するために焦点位置を可変的に調節する過程について説明する。一般的なスマートフォンに、オブジェクトの位置に合わせて焦点を調節する技術が多く適用されているが、このような技術は、主に人間のように撮影時間の間動かないオブジェクトを対象とし、ペットを撮影するときは、識別用オブジェクト(例:鼻)が持続的に動くことにより焦点が合わせられない場合が多い。識別用オブジェクトに焦点が合わせられない場合、人工知能に基づく学習又は識別に適さないデータが生成されやすいので、ペットの識別用オブジェクトに焦点が合わせられるようにすることが好ましい。
よって、本発明は、ペットのオブジェクトを検出した後、検出されたオブジェクトの位置に合わせて持続的に焦点位置をオブジェクトの位置に設定する方法を提供する。
本発明によれば、ペットの含まれたイメージを取得し、ペットの種を決定するための領域(第1特徴領域、例:顔領域)を設定して第1特徴領域でのイメージを抽出する。その後、第1特徴領域でペットの種に応じてペットを識別するための領域(第2特徴領域、例:鼻領域)を設定し、第2特徴領域でのイメージ(例:鼻紋イメージ)が人工知能に基づく学習又は識別に適するか否かを検査する。第2特徴領域でのオブジェクトのイメージが学習又は識別に適した品質を有する場合、学習又は識別のためのニューラルネットワーク(例:サーバ)に伝達されて格納され、適さない場合、当該イメージは捨てられる。
その後、N+1番目のフレームの画像を撮影するとき、N番目のフレームで検出されたオブジェクトの位置に焦点が位置するようにカメラを調節し、それにより、人工知能に基づく学習又は識別に適するようにペットの識別用オブジェクトイメージ(鼻紋イメージ)が取得され得る。
図7は、本発明による焦点位置調節によってペットを識別するためのオブジェクトを撮影する過程を示す。図7を参照すると、ペットを撮影しながら持続的にペットの識別のためのオブジェクト(例:鼻)が追跡され、特定のフレームでのペット撮影のための焦点の位置は、以前のフレームで設定されたオブジェクトの位置に設定される。本発明によれば、フレームごとに階段式オブジェクトの検出が行われるが、図5を参照して説明したように、1次的に動物の種を決定するために第1特徴領域を設定し、2次的に動物の種を考慮して第1特徴領域内で識別用オブジェクト(例:鼻)が位置する第2特徴領域を導出する。オブジェクトの検出が完了すれば、当該フレームのイメージが学習又は識別のために適するか否かを判断するための後処理(第2後処理)が行われ、適したイメージが取得されると、以後の学習又は識別のために当該フレームのイメージは格納される。
ペットの識別のためのオブジェクトイメージ(例:鼻紋イメージ)を取得するために次のフレームの画像撮影が持続されるが、ここで、撮影時の焦点の位置は、以前のフレームで決定されたオブジェクトの位置である。以前のフレームで検出されたオブジェクトの位置に合わせて焦点の位置を変更することにより、ペットがじっとしておらずに動く場合にも、持続的に識別用オブジェクトに従って焦点を移動することができる。このような過程によって焦点がずれる可能性を下げ、高い品質のオブジェクトイメージを取得することができる。このような過程が繰り返し行われ、カメラ焦点の移動を介してより学習又は識別に適したオブジェクトイメージを取得する可能性を高めることができる。
図8は、本発明によるペットの鼻紋管理システムでペットの鼻に対応するオブジェクトを撮影するための方法のフローチャートである。
本発明によるペットの識別のためのオブジェクトを撮影するための方法は、ペットの含まれた画像を取得するステップ(S810)と、画像からペットの識別のためのオブジェクトを検出するステップ(S820)と、検出されたオブジェクトの位置に焦点を設定した状態で次の画像を撮影するステップ(S830)と、を含む。以後、次の画像(フレーム)に対するオブジェクト検出及び焦点位置変更が繰り返し行われることができる。
本発明によれば、ペットの含まれた画像を取得するステップ(S810)は、以前のフレームに撮影されたイメージから検出された前記オブジェクトの位置に焦点が設定された状態でペットを撮影して画像を生成するステップを含むことができる。
本発明によれば、次の画像を撮影するステップ(S830)は、次の画像からオブジェクトの変更された位置を検出するステップと、次の画像で位置が変更されたオブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断するステップと、変更された位置に焦点を設定した状態で次の撮影を行うステップと、を含むことができる。
図7に示すように、現在フレームのイメージに対して識別用オブジェクト(例:ペットの鼻)を検出し、当該オブジェクトのイメージ(鼻紋イメージ)が人工知能に基づく学習又は識別に適するか否かを判断し、現在フレームのイメージから検出されたオブジェクトの位置が次のフレームのイメージの撮影時に焦点の位置として設定され得る。本発明のように、以前のフレームのオブジェクト位置を参考して現在フレームの焦点を調節することにより、ペットの識別のためのオブジェクトに焦点が合わせられるように維持することができ、学習又は識別可能な程度の品質を有する識別用オブジェクトのイメージ(鼻紋イメージ)を取得することができる。
本発明によれば、画像からペットの識別のためのオブジェクトを検出するステップは、画像からペットの種を決定するための第1特徴領域を設定するステップと、第1特徴領域内で前記ペットの種に応じて前記ペットの識別のためのオブジェクトを含む第2特徴領域を設定するステップと、を含むことができる。本発明は、イメージからペットの種とペットの識別用オブジェクトを同時に検出する代わりに、優先的に低い解像度で容易に処理することができるペットの種の検出を先に行い、後でペットの種を考慮してペットの識別用オブジェクトを検出することにより、演算複雑度を減少させながら効果的にオブジェクト識別用イメージ(鼻紋イメージ)を取得することができる。
本発明によれば、第2特徴領域を設定するステップは、ペットの識別のためのオブジェクトのイメージ(例:鼻紋イメージ)が人工知能に基づく学習又は識別に適するか否かを判断するステップを含む。ペットを撮影した後、全てのイメージを格納するのではなく、ペットの識別用オブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを先に判断し、適したオブジェクトイメージのみをサーバ、又は学習或いは識別用ニューラルネットワークに格納することにより、不要なデータが格納されることを防止することができる。
本発明によれば、前記オブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断するステップは、オブジェクトのイメージの品質が基準条件を満足するか否かを判断するステップと、品質が基準条件を満足する場合、オブジェクトのイメージを学習又は識別用サーバに伝送するステップと、品質が基準条件を満足しない場合、オブジェクトのイメージを捨て、次の画像に対する撮影を行うステップと、を含むことができる。オブジェクトのイメージの品質は、前述した第1品質値及び第2品質値で表現でき、第1品質値及び第2品質値が基準値よりも大きければ、当該オブジェクトイメージが学習又は識別に適した品質を有すると判断できる。
図9は、本発明によるオブジェクト追跡によってペットを識別するためのオブジェクトを撮影する過程を示す。本発明によるペットを識別するためのオブジェクトを撮影する方法は、ペットの含まれた画像を取得するステップ(S910)と、画像からペットの識別のためのオブジェクトを検出するステップ(S920)と、オブジェクトの位置に焦点を設定するステップ(S930)と、焦点が設定されたオブジェクトの位置にオブジェクト検出状態を示すグラフィックエレメントがオーバーレイされた画像を出力するステップ(S940)と、を含む。例えば、図4に示すように、撮影中の画像からペットの識別のためのオブジェクト(鼻)を検出し、当該オブジェクトの位置に焦点を設定して撮影しながら、当該オブジェクトの検出状態を示すグラフィックエレメント410A、410Bがオーバーレイされて出力されることができる。フレーム毎に検出されるオブジェクトをグラフィックエレメントが追跡するようにすることにより、ユーザは、オブジェクトが正しく追跡されるか否かを認識することができ、現在撮影されているオブジェクトのイメージ品質が適するか否かを確認することができる。
本発明の実施形態によれば、画像を出力するステップ(S940)は、オブジェクトのイメージの品質が基準条件を満足するか否かを判断するステップと、前記オブジェクトのイメージの品質が基準条件を満足する場合、良好品質状態を示す第1グラフィックエレメント410Aを前記オブジェクトにオーバーレイするステップと、オブジェクトの品質が基準条件を満足しない場合、不良品質状態を示す第2グラフィックエレメント410Bを前記オブジェクトにオーバーレイするステップと、を含むことができる。
本発明の実施形態によれば、画像を出力するステップ(S940)は、画像で前記オブジェクトの撮影品質状態を示すスコア情報420を出力するステップを含むことができる。図4に示すように、撮影されたイヌの鼻紋イメージがペットの識別又は学習のために適するかに対する程度が数値として計算されることができ、適合度に対する数値に基づいて、適合度が低いほど「BAD」方向に、適合度が高いほど「GOOD」方向にゲージが満たされる形態のスコア情報420が出力されることができる。
本発明の実施形態によれば、ペットを識別するためのオブジェクトを撮影する方法は、オブジェクトのイメージの品質状態に応じて良好なオブジェクトイメージが撮影されるようにユーザにフィードバックを提供するステップをさらに含むことができる。フィードバックは、画像と共に出力されるメッセージ、スピーカを介して出力される音声メッセージ、又は振動を介して出力されるハプティックフィードバックのうちの一つを含むことができる。例えば、イヌの鼻紋イメージのサイズが基準値よりも小さい場合、より大きいサイズの鼻紋イメージが撮影されるように、図4の(c)に示すように、「イヌの鼻の距離を合わせてください」のようなメッセージを出力することができる。例えば、ペットの識別のためのオブジェクト(例:イヌの鼻の紋)を撮影する過程で、ユーザに画像が適切に撮影されるようにユーザに案内するフィードバックとして、音声メッセージ(例えば、「イヌの鼻の距離を合わせてください」)がスピーカを介して出力されることができる。或いは、ペットの識別のためのオブジェクトが適切に撮影されるように、ハプティックモジュールは振動を発生させることにより、ユーザにフィードバックを提供することができる。例えば、カメラ1010からのペットの距離があまり遠く或いは近くなった場合、ハプティックモジュールは、振動を発生させることにより、ユーザに適切な距離が合わせられるようにすることができる。
本発明の実施形態によれば、ペットの含まれた画像を取得するステップ(S910)は、以前のフレームに撮影されたイメージから検出された前記オブジェクトの位置に焦点が設定された状態で前記ペットを撮影して前記画像を生成するステップを含むことができる。
図10は、本発明による電子装置1000のブロック図である。本発明による電子装置1000は、ペットの含まれた原本画像を生成するカメラ1010と、画像からペットの識別のためのオブジェクトを検出し、検出されたオブジェクトの位置に焦点を設定した状態で、次の画像を撮影するようにカメラ1010を制御するプロセッサ1020と、を含む。
カメラ1010は、レンズなどの光学モジュールと入力された光から画像信号を生成するCCD(Charge-Coupled Device)又はCMOS(Complementary Metal-Oxide Semiconductor)を含むことができ、画像撮影を介して画像データを生成してプロセッサ1020に提供することができる。
プロセッサ1020は、電子装置1000の各モジュールを制御し、画像処理のために必要な演算を行う。プロセッサ1020は、その機能によって複数のマイクロプロセッサ(プロセッシング回路)で構成されることができる。プロセッサ1020は、前述したように、ペット(例:イヌ)の識別のためのオブジェクト(例:鼻)を検出し、当該オブジェクトに対するイメージの有効性判断を行うことができる。例えば、プロセッサ1020は、撮影された画像からペットのオブジェクトの識別のためのオブジェクト(例:鼻)を検出し、当該オブジェクトに焦点が合わせられるようにカメラ1010のレンズ距離を調節することができる。また、プロセッサ1020は、検出されたオブジェクトの位置が追跡されていることを示すグラフィックエレメントをオーバーレイして出力するか、或いはオブジェクトイメージの品質状態を示すスコア情報、及びユーザにフィードバックを提供するメッセージをディスプレイ1050に出力することができる。
通 信モジュール1030は、有線/無線ネットワークを介して外部の個体(entity)とデータを送信又は受信することができる。特に、通信モジュール1030は、学習又は識別のためにサーバとの通信を介して人工知能に基づく処理のためのデータを交換することができる。
さらに、電子装置1000は、画像データ及び画像処理のために必要な情報を格納するメモリ1040と、ユーザに画面を出力するディスプレイ1050と、を含んで、用途に応じて多様なモジュールを含むことができる。ディスプレイ1050は、撮影中のペットの画像及びペットのインターフェース画面を出力することができる また、図示してはいないが、電子装置1000は、音響信号を出力するスピーカ及び振動を介してユーザにハプティックフィードバックを提供するハプティックモジュールを含むことができる。例えば、ペットの識別のためのオブジェクト(例:イヌの鼻紋)を撮影する過程で、ユーザに画像が適切に撮影されるようにユーザに案内するフィードバックとして、音声メッセージ(例えば、「イヌの鼻の距離を合わせてください」)がスピーカを介して出力されることができる。又は、ペットの識別のためのオブジェクトが適切に撮影されるように、ハプティックモジュールは、振動を発生させることにより、ユーザにフィードバックを提供することができる。例えば、カメラ1010からのペットの距離があまり遠く或いは近くなった場合、ハプティックモジュールは、振動を発生させることにより、ユーザに適切な距離が合わせられるようにすることができる。
本発明によれば、プロセッサ1020は、以前のフレームに撮影されたイメージから検出された前記オブジェクトの位置に焦点が設定された状態で前記ペットを撮影して前記画像を生成するようにカメラ1010を制御することができる。
本発明によれば、プロセッサ1020は、次の画像でオブジェクトの変更された位置を検出し、次の画像で位置が変更されたオブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断し、変更された位置に焦点を設定した状態で次の撮影を行うようにカメラ1010を制御することができる。
本発明によれば、プロセッサ1020は、画像からペットの種を決定するための第1特徴領域を設定し、第1特徴領域内でペットの識別のためのオブジェクトを含む第2特徴領域を設定することができる。
本発明によれば、プロセッサ1020は、ペットの識別のためのオブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断することができる。
本発明によれば、プロセッサ1020は、オブジェクトのイメージの品質が基準条件を満足するか否かを判断し、品質が基準条件を満足する場合、オブジェクトのイメージを学習又は識別用サーバに伝送し、品質が基準条件を満足しない場合、オブジェクトのイメージを捨て、次の画像に対する撮影を行うようにカメラ1010を制御することができる。
本発明によれば、プロセッサ1020は、検出されたオブジェクトの位置にオブジェクト検出状態を示すグラフィックエレメントがオーバーレイされた画像をディスプレイ1050に出力することができる。
本発明によれば、プロセッサ1020は、オブジェクトのイメージの品質が基準条件を満足するか否かを判断し、オブジェクトのイメージの品質が基準条件を満足する場合、良好品質状態を示す第1グラフィックエレメント410Aをオブジェクトにオーバーレイしてディスプレイ1050を介して出力し、オブジェクトの品質が基準条件を満足しない場合、不良品質状態を示す第2グラフィックエレメント410bを前記オブジェクトにオーバーレイしてディスプレイ1050を介して出力することができる。
本発明によれば、プロセッサ1020は、画像においてオブジェクトの撮影品質状態を示すスコア情報420をディスプレイ1050に出力することができる。
本発明によれば、プロセッサ1020は、オブジェクトのイメージの品質状態に応じて良好なオブジェクトイメージが撮影されるように、ユーザにフィードバックを提供するメッセージ430をディスプレイ1050に出力することができる。
本実施形態及び本明細書に添付された図面は、本発明に含まれる技術的思想の一部を明確に示しているものに過ぎず、本発明の明細書及び図面に含まれている技術的思想の範囲内で当業者が容易に類推することが可能な変形例及び具体的な実施形態はいずれも、本発明の権利範囲に含まれることが自明であるといえる。
したがって、本発明の思想は、説明された実施形態に限定されて定められてはならず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等又は等価的変形がある全てのものは、本発明の思想の範疇に属するというべきである。
Claims (20)
- ペットの識別のためのオブジェクトを撮影するための方法であって、
前記ペットの含まれた画像を取得するステップと、
前記画像から前記ペットの識別のためのオブジェクトを検出するステップと、
前記検出されたオブジェクトの位置に焦点を設定した状態で次の画像を撮影するステップと、を含む方法。 - 前記ペットの含まれた画像を取得するステップは、以前のフレームに撮影されたイメージから検出された前記オブジェクトの位置に焦点が設定された状態で前記ペットを撮影して前記画像を生成するステップを含む、請求項1に記載の方法。
- 前記画像から前記ペットの識別のためのオブジェクトを検出するステップは、
前記画像から前記ペットの種を決定するための第1特徴領域を設定するステップと、
前記第1特徴領域内で前記ペットの種に応じて前記ペットの識別のためのオブジェクトを含む第2特徴領域を設定するステップと、を含む、請求項1に記載の方法。 - 前記第2特徴領域を設定するステップは、前記ペットの識別のためのオブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断するステップを含む、請求項3に記載の方法。
- 前記オブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断するステップは、
前記オブジェクトのイメージの品質が基準条件を満足するか否かを判断するステップと、
前記品質が基準条件を満足する場合、前記オブジェクトのイメージをサーバに伝送するステップと、
前記品質が基準条件を満足しない場合、前記オブジェクトのイメージを捨て、次の画像に対する撮影を行うステップと、を含む、請求項4に記載の方法。 - ペットの識別のためのオブジェクトを撮影するための方法であって、
前記ペットの含まれた画像を取得するステップと、
前記画像から前記ペットの識別のためのオブジェクトを検出するステップと、
前記オブジェクトの位置に焦点を設定するステップと、
前記焦点の設定されたオブジェクトの位置にオブジェクト検出状態を示すグラフィックエレメントがオーバーレイされた前記画像を出力するステップと、を含む方法。 - 前記画像を出力するステップは、
前記オブジェクトのイメージの品質が基準条件を満足するか否かを判断するステップと、
前記オブジェクトのイメージの品質が基準条件を満足する場合、良好品質状態を示す第1グラフィックエレメントを前記オブジェクトにオーバーレイするステップと、
前記オブジェクトの品質が基準条件を満足しない場合、不良品質状態を示す第2グラフィックエレメントを前記オブジェクトにオーバーレイするステップと、を含む、請求項6に記載の方法。 - 前記画像を出力するステップは、前記画像において前記オブジェクトの撮影品質状態を示すスコア情報を出力するステップを含む、請求項6に記載の方法。
- 前記オブジェクトのイメージの品質状態に応じて良好なオブジェクトイメージが撮影されるようにユーザにフィードバックを提供するステップをさらに含む、請求項6に記載の方法。
- 前記ペットの含まれた画像を取得するステップは、以前のフレームに撮影されたイメージから検出された前記オブジェクトの位置に焦点が設定された状態で前記ペットを撮影して前記画像を生成するステップを含む、請求項6に記載の方法。
- ペットの識別のためのオブジェクトを撮影するための電子装置であって、
前記ペットの含まれた原本画像を生成するカメラと、
前記画像から前記ペットの識別のためのオブジェクトを検出し、前記検出されたオブジェクトの位置に焦点を設定した状態で次の画像を撮影するように前記カメラを制御するプロセッサと、を含む電子装置。 - 前記プロセッサは、
以前のフレームに撮影されたイメージから検出された前記オブジェクトの位置に焦点が設定された状態で前記ペットを撮影して前記画像を生成するように前記カメラを制御する、請求項6に記載の電子装置。 - 前記プロセッサは、
前記画像から前記ペットの種を決定するための第1特徴領域を設定し、
前記第1特徴領域内で前記ペットの識別のためのオブジェクトを含む第2特徴領域を設定する、請求項11に記載の電子装置。 - 前記プロセッサは、前記ペットの識別のためのオブジェクトのイメージが人工知能に基づく学習又は識別に適するか否かを判断する、請求項13に記載の電子装置。
- 前記プロセッサは、
前記オブジェクトのイメージの品質が基準条件を満足するか否かを判断し、
前記品質が基準条件を満足する場合、前記オブジェクトのイメージをサーバに伝送し、
前記品質が基準条件を満足しない場合、前記オブジェクトのイメージを捨て、次の画像に対する撮影を行うように前記カメラを制御する、請求項14に記載の電子装置。 - 前記撮影中のペットの画像を出力するディスプレイをさらに含む、請求項11に記載の電子装置。
- 前記プロセッサは、前記検出されたオブジェクトの位置にオブジェクト検出状態を示すグラフィックエレメントがオーバーレイされた前記画像をディスプレイに出力する、請求項16に記載の電子装置。
- 前記プロセッサは、
前記オブジェクトのイメージの品質が基準条件を満足するか否かを判断し、
前記オブジェクトのイメージの品質が基準条件を満足する場合、良好品質状態を示す第1グラフィックエレメントを前記オブジェクトにオーバーレイし、
前記オブジェクトの品質が基準条件を満足しない場合、不良品質状態を示す第2グラフィックエレメントを前記オブジェクトにオーバーレイする、請求項17に記載の電子装置。 - 前記プロセッサは、前記画像において前記オブジェクトの撮影品質状態を示すスコア情報を前記ディスプレイを介して出力する、請求項16に記載の電子装置。
- 前記プロセッサは、前記オブジェクトのイメージの品質状態に応じて良好なオブジェクトイメージが撮影されるようにユーザにフィードバックを提供する、請求項11に記載の電子装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0083752 | 2021-06-28 | ||
KR1020210083752A KR102453695B1 (ko) | 2021-06-28 | 2021-06-28 | 반려 동물의 식별을 위한 객체를 촬영하기 위한 방법 및 장치 |
PCT/KR2022/009094 WO2023277472A1 (ko) | 2021-06-28 | 2022-06-27 | 반려 동물의 식별을 위한 객체를 촬영하기 위한 방법 및 전자 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024518453A true JP2024518453A (ja) | 2024-05-01 |
Family
ID=83598227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023568646A Pending JP2024518453A (ja) | 2021-06-28 | 2022-06-27 | ペットの識別のためのオブジェクトを撮影するための方法及び電子装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20240214670A1 (ja) |
EP (1) | EP4322542A1 (ja) |
JP (1) | JP2024518453A (ja) |
KR (2) | KR102453695B1 (ja) |
CN (1) | CN117321988A (ja) |
AU (1) | AU2022304436A1 (ja) |
CA (1) | CA3218331A1 (ja) |
WO (1) | WO2023277472A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010136221A (ja) * | 2008-12-05 | 2010-06-17 | Bankutekku Japan Kk | イメージ処理システム及びイメージ処理方法 |
KR20190059148A (ko) * | 2017-11-22 | 2019-05-30 | 주식회사 테오아 | 신원 확인 기관에서의 비문 인식을 이용한 반려동물의 신원 확인 방법 |
KR102117860B1 (ko) * | 2018-10-11 | 2020-06-02 | 주식회사 핏펫 | 동물의 안면 및 비문 이미지에 기초하여 동물의 개체 정보를 제공하는 컴퓨터 프로그램 및 단말기 |
KR20210074017A (ko) * | 2019-12-11 | 2021-06-21 | 대한민국(농촌진흥청장) | 반려견 생체정보 인증 시스템 |
-
2021
- 2021-06-28 KR KR1020210083752A patent/KR102453695B1/ko active IP Right Grant
-
2022
- 2022-06-27 EP EP22833528.7A patent/EP4322542A1/en active Pending
- 2022-06-27 CA CA3218331A patent/CA3218331A1/en active Pending
- 2022-06-27 CN CN202280033974.2A patent/CN117321988A/zh active Pending
- 2022-06-27 US US17/915,472 patent/US20240214670A1/en active Pending
- 2022-06-27 WO PCT/KR2022/009094 patent/WO2023277472A1/ko active Application Filing
- 2022-06-27 AU AU2022304436A patent/AU2022304436A1/en active Pending
- 2022-06-27 JP JP2023568646A patent/JP2024518453A/ja active Pending
- 2022-10-06 KR KR1020220127703A patent/KR20230001557A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023277472A1 (ko) | 2023-01-05 |
CN117321988A (zh) | 2023-12-29 |
KR20230001557A (ko) | 2023-01-04 |
EP4322542A1 (en) | 2024-02-14 |
AU2022304436A1 (en) | 2023-11-23 |
CA3218331A1 (en) | 2023-01-05 |
KR102453695B1 (ko) | 2022-10-12 |
US20240214670A1 (en) | 2024-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10872420B2 (en) | Electronic device and method for automatic human segmentation in image | |
US8861806B2 (en) | Real-time face tracking with reference images | |
JP5149293B2 (ja) | デジタル画像収集装置におけるリアルタイム顔追跡 | |
CN101416219B (zh) | 数字图像中的前景/背景分割 | |
CN113766125B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
JP5704905B2 (ja) | 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体 | |
CN110650291B (zh) | 目标追焦方法和装置、电子设备、计算机可读存储介质 | |
JP2010165053A (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JP2007074143A (ja) | 撮像装置及び撮像システム | |
CN110365897B (zh) | 图像修正方法和装置、电子设备、计算机可读存储介质 | |
JP2012103859A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2010141847A (ja) | 画像処理装置及び画像処理方法 | |
CN113822927A (zh) | 一种适用弱质量图像的人脸检测方法、装置、介质及设备 | |
JP2024518453A (ja) | ペットの識別のためのオブジェクトを撮影するための方法及び電子装置 | |
KR102444928B1 (ko) | 반려 동물의 식별을 위한 객체를 검출하기 위한 방법 및 장치 | |
KR102444929B1 (ko) | 반려 동물의 식별을 위한 객체의 이미지를 처리하기 위한 방법 및 장치 | |
JP4789526B2 (ja) | 画像処理装置、画像処理方法 | |
JP2024518492A (ja) | ペットの識別のためのオブジェクトを撮影するための方法及び電子装置 | |
KR102452192B1 (ko) | 반려 동물의 식별을 위한 객체의 이미지를 필터링하기 위한 방법 및 장치 | |
US20240221416A1 (en) | Method for photographing object for identifying companion animal, and electronic device | |
JP2008148262A (ja) | 撮像装置及び撮像装置の制御方法、プログラム及び記憶媒体 | |
JP2008148161A (ja) | 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体 | |
CN113691731B (zh) | 一种处理方法、装置和电子设备 | |
JP2014044525A (ja) | 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム | |
WO2023175652A1 (ja) | 動画生成装置、動画生成方法、および動画生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231107 |