JP6927540B1 - Information processing equipment, information processing system, information processing method and program - Google Patents
Information processing equipment, information processing system, information processing method and program Download PDFInfo
- Publication number
- JP6927540B1 JP6927540B1 JP2020149204A JP2020149204A JP6927540B1 JP 6927540 B1 JP6927540 B1 JP 6927540B1 JP 2020149204 A JP2020149204 A JP 2020149204A JP 2020149204 A JP2020149204 A JP 2020149204A JP 6927540 B1 JP6927540 B1 JP 6927540B1
- Authority
- JP
- Japan
- Prior art keywords
- limited
- region
- priority
- area
- extraction unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 65
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000000605 extraction Methods 0.000 claims abstract description 79
- 238000000034 method Methods 0.000 claims abstract description 58
- 239000000284 extract Substances 0.000 claims abstract description 43
- 230000008569 process Effects 0.000 claims abstract description 36
- 230000011218 segmentation Effects 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims description 19
- 241001465754 Metazoa Species 0.000 claims description 7
- 238000010586 diagram Methods 0.000 abstract description 10
- 238000004891 communication Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 6
- 210000003423 ankle Anatomy 0.000 description 3
- 210000001513 elbow Anatomy 0.000 description 3
- 210000001624 hip Anatomy 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 210000002832 shoulder Anatomy 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
【課題】対象画像から、所望領域とは異なる領域が誤って検出される可能性を低減する情報処理装置、情報処理システム、情報処理方法及びプログラムを提供する。【解決手段】情報処理装置1は、対象画像におけるキーポイント位置の推定及び/又はセマンティックセグメンテーションによる領域分類を実行し、当該推定したキーポイント位置及び/又は当該領域分類の結果を用いて、対象画像から所望領域を含む限定領域を抽出する限定領域抽出部と、抽出された限定領域に対して所望領域を認識する処理を実行して、限定領域から所望領域を抽出して出力する所望領域出力部と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To provide an information processing device, an information processing system, an information processing method and a program which reduce the possibility that an area different from a desired area is erroneously detected from a target image. An information processing apparatus 1 executes region classification by estimation of a key point position and / or semantic segmentation in a target image, and uses the estimated key point position and / or the result of the region classification to display the target image. A limited area extraction unit that extracts a limited area including a desired area from, and a desired area output unit that extracts a desired area from the limited area by executing a process of recognizing the desired area for the extracted limited area and outputting the desired area. And. [Selection diagram] Fig. 1
Description
本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing system, an information processing method and a program.
従来から、画像認識技術を用いて、画像から特定の領域を抽出することが行われている。たとえば、人体に対しては、人体検知、顔検出、顔認識、顔方向検知、顔器官検出、年齢、性別、表情、また肩、足元、身長等の人体の部位認識(人体特徴認識)を実行することが提案され、また、物体に対しては、大きさや形状の解析、及び椅子や自動車等の物体カテゴリの検出を行うことが提案されている(例えば、特許文献1参照)。 Conventionally, a specific region has been extracted from an image by using an image recognition technique. For example, for the human body, human body detection, face detection, face recognition, face direction detection, facial organ detection, age, gender, facial expression, and human body part recognition (human body feature recognition) such as shoulders, feet, and height are executed. It is also proposed to analyze the size and shape of an object and detect an object category such as a chair or an automobile (see, for example, Patent Document 1).
一方、非特許文献1には、人物が写った写真から、キーポイントを推定して、人物のポーズを推定する技術が開示されている。ここで、キーポイントとは、関節点(肩、肘、手首、腰、膝、足首など)や特徴点(目、鼻、口、耳など)のことである。
また、非特許文献2には、セマンティックセグメンテーションによって、写真から、人物の領域、自転車の領域、動物の領域など各領域を推定することが開示されている。
On the other hand, Non-Patent Document 1 discloses a technique of estimating a key point and estimating a pose of a person from a photograph of a person. Here, the key points are joint points (shoulders, elbows, wrists, hips, knees, ankles, etc.) and feature points (eyes, nose, mouth, ears, etc.).
Further, Non-Patent
従来手法として例えば、人物が写った写真の画像から、顔を検出する手法がある。しかし、対象画像に例えば、顔だけでなく「顔と似て非なる物」(例えば、コンセント)が写っている場合、顔ではない領域が誤って検出されて出力されてしまうことがある。このように、対象画像から、ユーザが所望する所望領域(例えば、人物の顔または犬の顔)とは異なる領域が誤って検出されて出力されてしまうことがある。 As a conventional method, for example, there is a method of detecting a face from an image of a photograph showing a person. However, when, for example, not only a face but also a "non-face-like object" (for example, an outlet) is shown in the target image, an area other than the face may be erroneously detected and output. In this way, an area different from the desired area (for example, a person's face or a dog's face) desired by the user may be erroneously detected and output from the target image.
本発明は、上記問題に鑑みてなされたものであり、対象画像から、所望領域とは異なる領域が誤って検出される可能性を低減することを可能とする情報処理装置、情報処理システム、情報処理方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and is an information processing device, an information processing system, and information that can reduce the possibility that a region different from a desired region is erroneously detected from a target image. It is an object of the present invention to provide a processing method and a program.
本発明の第1の態様に係る情報処理装置は、対象画像におけるキーポイント位置の推定及び/又はセマンティックセグメンテーションによる領域分類を実行し、当該推定したキーポイント位置、及び/又は当該領域分類の結果を用いて、前記対象画像から所望領域を含む限定領域を抽出する限定領域抽出部と、前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から所望領域を抽出して出力する所望領域出力部と、を備える。 The information processing apparatus according to the first aspect of the present invention executes the estimation of the key point position in the target image and / or the area classification by semantic segmentation, and obtains the estimated key point position and / or the result of the area classification. A limited region extraction unit that extracts a limited region including a desired region from the target image and a process of recognizing the desired region with respect to the extracted limited region are executed to obtain the desired region from the limited region. A desired area output unit for extracting and outputting is provided.
この構成によれば、キーポイントの推定、及び/又はセマンティックセグメンテーションによる対象画像内の画像領域の推定を用いることにより、所望領域を高精度に検出することができる。このため、対象画像から、所望領域とは異なる領域が誤って検出される可能性を低減することができる。 According to this configuration, the desired region can be detected with high accuracy by using the estimation of the key point and / or the estimation of the image region in the target image by semantic segmentation. Therefore, it is possible to reduce the possibility that a region different from the desired region is erroneously detected from the target image.
本発明の第2の態様に係る情報処理装置は、第1の態様に係る情報処理装置であって、前記限定領域抽出部は、前記セマンティックセグメンテーションによって前記対象画像を複数の領域に分け、当該領域毎に当該領域が表すカテゴリに分類し、前記所望領域の種類に対応するカテゴリに分類された領域を略含む領域を前記限定領域として抽出し、前記所望領域出力部は、前記選択された限定領域において前記所望領域を認識する処理を実行して、少なくとも一つの所望領域を出力する。 The information processing device according to the second aspect of the present invention is the information processing device according to the first aspect, and the limited area extraction unit divides the target image into a plurality of areas by the semantic segmentation and divides the target image into a plurality of areas. Each region is classified into a category represented by the region, and an region including a region classified into a category corresponding to the type of the desired region is extracted as the limited region, and the desired region output unit is the selected limited region. In, the process of recognizing the desired region is executed, and at least one desired region is output.
この構成によれば、複数のカテゴリの被写体が写った画像であっても、ユーザが所望する所望領域の種類に対応するカテゴリの画像領域だけを抽出することができる。 According to this configuration, even if the image shows a plurality of categories of subjects, only the image area of the category corresponding to the type of desired area desired by the user can be extracted.
本発明の第3の態様に係る情報処理装置は、第1の態様に係る情報処理装置であって、前記限定領域抽出部は、前記推定されたキーポイントのうちの1個または複数個を含むように前記限定領域を抽出する。 The information processing device according to the third aspect of the present invention is the information processing device according to the first aspect, and the limited area extraction unit includes one or more of the estimated key points. The limited region is extracted as described above.
この構成によれば、限定領域を確実に作ることができる。 According to this configuration, a limited area can be surely created.
本発明の第4の態様に係る情報処理装置は、第1の態様に係る情報処理装置であって、前記限定領域抽出部は、前記セマンティックセグメンテーションによって前記対象画像を複数の領域に分け、当該領域毎に当該領域が表すカテゴリに分類し、前記所望領域の種類に対応するカテゴリに分類された領域を略含む領域において、キーポイント位置を推定し、当該推定したキーポイントのうちの1個または複数個を含むように前記限定領域を抽出する。 The information processing device according to the fourth aspect of the present invention is the information processing device according to the first aspect, and the limited area extraction unit divides the target image into a plurality of areas by the semantic segmentation and divides the target image into a plurality of areas. Each is classified into the category represented by the region, and the key point position is estimated in the region including the region classified into the category corresponding to the type of the desired region, and one or more of the estimated key points are estimated. The limited region is extracted so as to include the number.
この構成によれば、2段階で抽出することによって、複数のカテゴリの被写体が写った画像であっても、ユーザが所望する所望領域の種類に対応するカテゴリの画像領域(例えば人の画像領域)であって所望領域の種類の画像領域(例えば、人の顔の画像領域)だけを高精度に抽出することができる。 According to this configuration, by extracting in two steps, even if the image shows a subject of a plurality of categories, the image area of the category corresponding to the type of the desired area desired by the user (for example, the image area of a person). Therefore, only an image region of a desired region type (for example, an image region of a human face) can be extracted with high accuracy.
本発明の第5の態様に係る情報処理装置は、第1から4のいずれかの態様に係る情報処理装置であって、前記限定領域抽出部によって抽出された限定領域が複数ある場合、当該複数の限定領域をユーザが選択可能にディスプレイに表示制御する表示制御部と、ユーザによって選択された限定領域を受け付ける受付部と、を備え、前記所望領域出力部は、前記ユーザによって選択された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から所望領域を抽出して出力する。 The information processing device according to the fifth aspect of the present invention is the information processing device according to any one of the first to fourth aspects, and when there are a plurality of limited regions extracted by the limited region extraction unit, the plurality of the information processing devices. The desired area output unit includes a display control unit that controls the display of the limited area on the display so that the user can select the limited area, and a reception unit that receives the limited area selected by the user. The desired area output unit is the limited area selected by the user. The desired region is extracted from the limited region and output by executing the process of recognizing the desired region.
この構成によればユーザが複数の限定領域の中から1以上の限定領域を選択することで、ユーザによって選択された限定領域から所望領域が出力されるので、所望領域の出力精度を向上させることができる。 According to this configuration, when the user selects one or more limited areas from the plurality of limited areas, the desired area is output from the limited area selected by the user, so that the output accuracy of the desired area can be improved. Can be done.
本発明の第6の態様に係る情報処理装置は、第1から5のいずれかの態様に係る情報処理装置であって、前記限定領域抽出部は、前記複数の限定領域を抽出し、前記所望領域出力部は、前記選択された複数の限定領域から、複数の所望領域を出力し、前記出力された複数の所望領域のうち、少なくとも一つをユーザが選択可能にディスプレイに表示制御する表示制御部を備える。 The information processing device according to the sixth aspect of the present invention is the information processing device according to any one of the first to fifth aspects, and the limited area extraction unit extracts the plurality of limited areas and the desired one. The area output unit outputs a plurality of desired areas from the selected plurality of limited areas, and displays and controls at least one of the output desired areas on the display so that the user can select them. It has a part.
この構成によれば、ユーザが複数の所望領域から、1以上の領域を選択することができる。 According to this configuration, the user can select one or more regions from a plurality of desired regions.
本発明の第7の態様に係る情報処理装置は、第1から6のいずれかの態様に係る情報処理装置であって、前記所望領域出力部によって出力された所望領域が複数ある場合、前記複数の所望領域のうちユーザによって選択された1以上の所望領域を受け付ける受付部と、前記ユーザによって選択された1以上の所望領域をストレージに保存させる記憶処理部と、を更に備える。 The information processing device according to the seventh aspect of the present invention is the information processing device according to any one of the first to sixth aspects, and when there are a plurality of desired regions output by the desired region output unit, the plurality of desired regions. A reception unit that receives one or more desired areas selected by the user among the desired areas of the above, and a storage processing unit that stores one or more desired areas selected by the user in the storage are further provided.
この構成によれば、ユーザが選択した所望の画像を活用することができる。 According to this configuration, a desired image selected by the user can be utilized.
本発明の第8の態様に係る情報処理装置は、第1から7のいずれかの態様に係る情報処理装置であって、前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部を備え、前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、前記所望領域出力部は、当該優先度に応じて前記所望領域を出力する。 The information processing device according to the eighth aspect of the present invention is the information processing device according to any one of the first to seventh aspects, and the priority target in the output of the desired region is designated by the user. The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and the desired area output unit determines the priority of each of the plurality of limited areas. The desired region is output according to the priority.
この構成によれば、ユーザが優先するもの(例えば、手前にいる人物)の画像領域を取得することができる。 According to this configuration, it is possible to acquire an image area of a user's priority (for example, a person in front).
本発明の第9の態様に係る情報処理システムは、対象画像におけるキーポイント位置の推定及び/又はセマンティックセグメンテーションによる領域分類を実行し、当該推定したキーポイント位置、及び/又は当該領域分類の結果を用いて、前記対象画像から所望領域を含む限定領域を抽出する限定領域抽出部と、前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から所望領域を抽出して出力する所望領域出力部と、を備える。 The information processing system according to the ninth aspect of the present invention executes the estimation of the key point position in the target image and / or the area classification by semantic segmentation, and obtains the estimated key point position and / or the result of the area classification. A limited region extraction unit that extracts a limited region including a desired region from the target image and a process of recognizing the desired region with respect to the extracted limited region are executed to obtain the desired region from the limited region. A desired area output unit for extracting and outputting is provided.
この構成によれば、キーポイントの推定、及び/又はセマンティックセグメンテーションによる対象画像内の画像領域の推定を用いることにより、所望領域を高精度に検出することができる。このため、対象画像から、所望領域とは異なる領域が誤って検出される可能性を低減することができる。 According to this configuration, the desired region can be detected with high accuracy by using the estimation of the key point and / or the estimation of the image region in the target image by semantic segmentation. Therefore, it is possible to reduce the possibility that a region different from the desired region is erroneously detected from the target image.
本発明の第10の態様に係る情報処理方法は、対象画像におけるキーポイント位置の推定及び/又はセマンティックセグメンテーションによる領域分類を実行し、当該推定したキーポイント位置、及び/又は当該領域分類の結果を用いて、前記対象画像から所望領域を含む限定領域を抽出する限定領域抽出手順と、前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から所望領域を抽出して出力する所望領域出力手順と、を有する。 In the information processing method according to the tenth aspect of the present invention, the key point position in the target image is estimated and / or the area classification by semantic segmentation is executed, and the estimated key point position and / or the result of the area classification is obtained. The desired region is extracted from the limited region by performing a limited region extraction procedure for extracting a limited region including a desired region from the target image and a process for recognizing the desired region with respect to the extracted limited region. It has a desired area output procedure for extracting and outputting.
この構成によれば、キーポイントの推定、及び/又はセマンティックセグメンテーションによる対象画像内の画像領域の推定を用いることにより、所望領域を高精度に検出することができる。このため、対象画像から、所望領域とは異なる領域が誤って検出される可能性を低減することができる。 According to this configuration, the desired region can be detected with high accuracy by using the estimation of the key point and / or the estimation of the image region in the target image by semantic segmentation. Therefore, it is possible to reduce the possibility that a region different from the desired region is erroneously detected from the target image.
本発明の第11の態様に係るプログラムは、対象画像におけるキーポイント位置の推定及び/又はセマンティックセグメンテーションによる領域分類を実行し、当該推定したキーポイント位置、及び/又は当該領域分類の結果を用いて、前記対象画像から所望領域を含む限定領域を抽出する限定領域抽出手順、前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から所望領域を抽出して出力する所望領域出力手順、を実行させるためのプログラムである。 The program according to the eleventh aspect of the present invention executes region classification by estimation of key point position and / or semantic segmentation in the target image, and uses the estimated key point position and / or the result of the region classification. , A limited area extraction procedure for extracting a limited area including a desired area from the target image, a process for recognizing the desired area for the extracted limited area, and extracting the desired area from the limited area. This is a program for executing the desired area output procedure for output.
この構成によれば、キーポイントの推定、及び/又はセマンティックセグメンテーションによる対象画像内の画像領域の推定を用いることにより、所望領域を高精度に検出することができる。このため、対象画像から、所望領域とは異なる領域が誤って検出される可能性を低減することができる。 According to this configuration, the desired region can be detected with high accuracy by using the estimation of the key point and / or the estimation of the image region in the target image by semantic segmentation. Therefore, it is possible to reduce the possibility that a region different from the desired region is erroneously detected from the target image.
本発明の一態様によれば、キーポイントの推定、及び/又はセマンティックセグメンテーションによる対象画像内の画像領域の推定を用いることにより、所望領域を高精度に検出することができる。このため、対象画像から、所望領域とは異なる領域が誤って検出される可能性を低減することができる。 According to one aspect of the present invention, the desired region can be detected with high accuracy by using the estimation of the key point and / or the estimation of the image region in the target image by semantic segmentation. Therefore, it is possible to reduce the possibility that a region different from the desired region is erroneously detected from the target image.
以下、各実施形態について、図面を参照しながら説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, each embodiment will be described with reference to the drawings. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art.
本実施形態では、上記の課題だけでなく、対象画像に所望の人物だけでなく他の人物も写っている場合に、所望の人物の所望領域の画像を取得することができるようにすることも課題とする。 In the present embodiment, in addition to the above-mentioned problems, it is also possible to acquire an image of a desired area of a desired person when not only a desired person but also another person is shown in the target image. Make it an issue.
第1の実施形態に係る情報処理装置1は、例えば多機能携帯電話(いわゆるスマートフォン)などの携帯電話、タブレット、ノートパソコンなどのモバイルデバイス、またはデスクトップパソコンなどである。本実施形態では、一例として、多機能携帯電話であるものとして説明する。 The information processing device 1 according to the first embodiment is, for example, a mobile phone such as a multifunctional mobile phone (so-called smartphone), a mobile device such as a tablet or a laptop computer, or a desktop personal computer. In the present embodiment, as an example, it will be described as a multifunctional mobile phone.
図1は、第1の実施形態に係る情報処理装置の概略構成図である。図1に示すように、情報処理装置1は例えば、入力インタフェース11と、通信モジュール12と、ストレージ13と、メモリ14と、ディスプレイ15と、プロセッサ16と、カメラ17とを備える。
入力インタフェース11は、ユーザの操作を受け付け、受け付けた操作に応じた入力信号をプロセッサ16へ出力する。本実施形態では入力インタフェース11は一例としてタッチパネルである。
通信モジュール12は、通信回路網に接続されて、通信回路網に接続されている他のコンピュータと通信する。この通信は有線であっても無線であってもよい。
FIG. 1 is a schematic configuration diagram of an information processing device according to the first embodiment. As shown in FIG. 1, the information processing device 1 includes, for example, an
The
The
ストレージ13には、プロセッサ16が読み出して実行するためのアプリケーションのプログラム及び各種のデータが格納されている。このアプリケーションは例えば、サーバもしくはクラウド経由でダウンロードされてインストールされたものである。
メモリ14は、データ及びプログラムを一時的に保持する。メモリ14は、揮発性メモリであり、例えばRAM(Random Access Memory)である。
ディスプレイ15は、プロセッサ16の指令に従って、情報を表示する。
The
The
The
プロセッサ16は、ストレージ13から第1の実施形態に係るアプリケーションのプログラムをメモリ14にロードし、当該プログラムに含まれる一連の命令を実行することによって、取得部161、限定領域抽出部162、所望領域出力部163、表示制御部164、受付部165、記憶処理部166として機能する。各部の処理の詳細については後述する。
The
カメラ17は、例えばディスプレイ15側に設けられた背面カメラであり、被写体を撮像可能である。なお、情報処理装置1は、これに加えてまたはこれに替えて、ディスプレイ15側に設けられた前面カメラを備えてもよい。
The
図2は、情報処理装置に表示される画面遷移の一例である。図2の画面G1、G2は、例えば、アプリケーションを立ち上げて表示される画面である。画面G1では、対象画像がユーザによって選択されて表示されている画面の一例である。画面G1には、対象画像を選択するためのファイル選択用ボタンB1と、ユーザが抽出したい所望領域の種類を入力するための入力ボックスB2と、所望領域抽出の開始を指示するための抽出開始ボタンB3と、対象画像F1が表示されている。ここでは、対象画像F1として、二人の男性が写った画像が表示されている。入力ボックスB2ではなく、セレクトボックスや、複数のタグからの選択など、選択式であってもよい。ここでは所望領域は例えば、ユーザが抽出を所望する種類(例えば、人の顔)の画像領域である。なお、所望領域の種類は一例としてユーザが設定するものとして説明するが、これに限らず、所望領域の種類は予め設定されていてもよく、その場合、所望領域は例えば、予め所望する種類(例えば、人の顔)が設定された画像領域である。例えば情報処理装置が、顔検出専用の装置である場合、所望領域の種類は、人の顔に予め設定されていてもよい。 FIG. 2 is an example of a screen transition displayed on the information processing apparatus. The screens G1 and G2 of FIG. 2 are, for example, screens displayed by launching an application. The screen G1 is an example of a screen in which the target image is selected and displayed by the user. On the screen G1, a file selection button B1 for selecting a target image, an input box B2 for inputting the type of a desired area to be extracted by the user, and an extraction start button for instructing the start of extraction of the desired area are displayed. B3 and the target image F1 are displayed. Here, as the target image F1, an image showing two men is displayed. Instead of the input box B2, a selection type such as a select box or selection from a plurality of tags may be used. Here, the desired region is, for example, an image region of the type (for example, a human face) that the user desires to extract. The type of the desired area will be described as being set by the user as an example, but the present invention is not limited to this, and the type of the desired area may be set in advance. For example, a human face) is a set image area. For example, when the information processing device is a device dedicated to face detection, the type of the desired region may be preset for the human face.
例えば、ユーザによって「何を見つけますか?」(抽出したい所望領域の種類)に対する回答として「人の顔」が入力され、抽出開始ボタンB3が押された場合、処理が実行されて、画面G2に表示が遷移する。画面G2では例えば、「見つかった領域」(所望領域)として、二人の男性のうち一人の男性の顔の画像領域が所望領域として表示される。 For example, when the user inputs "human face" as an answer to "what do you want to find?" (Type of desired area to be extracted) and the extraction start button B3 is pressed, the process is executed and the screen G2 is executed. The display changes to. On the screen G2, for example, as a "found area" (desired area), an image area of the face of one of the two men is displayed as a desired area.
続いて図2の画面G1から画面G2に遷移する間に実行されている処理について、説明する。画面G1で抽出開始ボタンB3が押された場合、取得部161は、対象画像内の領域であってユーザが所望する所望領域の種類(図2の例の場合、人の顔)を取得する。なお、予め所望領域の種類が特定の物(例えば、人の顔)に決められている場合には、取得部161はなくてもよい。限定領域抽出部162は、対象画像から次の手法(下記の<実施例1の処理>から<実施例3の処理>の手法)の一つ以上を使って「限定領域」を抽出する。そして所望領域出力部163は、抽出された限定領域に対して前記所望領域を認識する処理(例えば、顔検出)を実行して、当該限定領域から所望領域を抽出して出力する。
Subsequently, the processing executed during the transition from the screen G1 to the screen G2 in FIG. 2 will be described. When the extraction start button B3 is pressed on the screen G1, the
<実施例1の処理>
まず、処理の実施例1は、キーポイント推定を使ったものである。実施例1について図3を用いて説明する。図3は、実施例1の処理について説明するための図である。図3において、限定領域抽出部162は、対象画像H1において、非特許文献1などの技術を用いて、キーポイント位置を推定する。画像H2は、推定されたキーポイントの位置が白丸で示されている。このように、キーポイントとして、関節点(肩、肘、手首、腰、膝、足首など)や特徴点(目、鼻、口、耳など)が抽出される。一態様では、限定領域抽出部162によって、顔のキーポイントのバウンディングボックスは、1人の人物について1個設定され、その人物の顔のキーポイント(例えば目、鼻、口、耳のキーポイント)全部を含む1個のバウンディングボックスが設定される。図3の例では、顔のキーポイントのバウンディングボックスH21と、顔のキーポイントのバウンディングボックスH22が示されている。ここでは一例として、顔のキーポイントのバウンディングボックスは、人物の顔のキーポイント全部をちょうど囲うのに必要な大きさの四角い箱(矩形)である。また一態様では、限定領域抽出部162によって、身体のキーポイントに対するバウンディングボックスは、1人の人物について1個設定され、身体のキーポイントに対する関節点(例えば肩、肘、手首、腰、膝、足首のキーポイント)全部を含む1個のバウンディングボックスが設定される。
<Processing of Example 1>
First, the first embodiment of the process uses key point estimation. The first embodiment will be described with reference to FIG. FIG. 3 is a diagram for explaining the process of the first embodiment. In FIG. 3, the limited
図3の画像H2のように、検出されたキーポイントが複数人分の場合は、限定領域抽出部162は、以下の方法のうちの1つを使って(あるいは複数方法を併用して)、複数人物のうちの1人分に絞り込む。
(1)より多くの顔のキーポイントが検出された人物を選ぶ。
(2)より多くの身体のキーポイントが検出された人物を選ぶ。
(3)顔のキーポイントのバウンディングボックスが大きい人物を選ぶ。
(4)身体のキーポイントのバウンディングボックスが大きい人物を選ぶ。
When the detected key points are for a plurality of people as in the image H2 of FIG. 3, the limited
(1) Select a person whose facial key points are detected.
(2) Select a person whose body key points have been detected.
(3) Select a person with a large facial key point bounding box.
(4) Select a person with a large bounding box, which is a key point of the body.
図3の例では、限定領域抽出部162は、上記(1)、(2)の方法では差が付かないので(検出された顔のキーポイントはいずれも6個で同数、検出された身体のキーポイントはいずれも2個で同数)、上記(3)の方法を用いて、顔のキーポイントのバウンディングボックスが大きい人物を選択する。これにより、対象画像に複数の人物が写っている場合に、主たる人物の顔の画像を取得することができる。
In the example of FIG. 3, since the limited
続いて、限定領域抽出部162は例えば、1人分のキーポイントから、例えば下記の方法で「限定領域」を決定する。
(1)顔のキーポイントのバウンディングボックスを所定量もしくは所定の割合だけ広げた領域を「限定領域」とする。ここで「所定量もしくは所定の割合」は、具体的には下記のようにしてもよい。
(ア)顔のキーポイントのバウンディングボックスの大きさに対する所定の割合。
(イ)身体のキーポイントのバウンディングボックスの大きさに対する所定の割合。
(ウ)ソース画像の大きさに対する所定の割合。
(エ)所定の画素数。
Subsequently, the limited
(1) An area in which the bounding box of the key point of the face is expanded by a predetermined amount or a predetermined ratio is defined as a "limited area". Here, the "predetermined amount or predetermined ratio" may be specifically as follows.
(A) A predetermined ratio of facial key points to the size of the bounding box.
(B) A predetermined ratio of the key points of the body to the size of the bounding box.
(C) A predetermined ratio to the size of the source image.
(D) A predetermined number of pixels.
(2)顔のキーポイントの重心を中心とする所定の大きさの矩形領域を「限定領域」としてもよい。ここで「所定の大きさ」は,具体的には下記のようにしてもよい。
(ア)顔のキーポイントのバウンディングボックスの大きさに対する所定の割合。
(イ)身体のキーポイントのバウンディングボックスの大きさに対する所定の割合。
(ウ)ソース画像の大きさに対する所定の割合。
(エ)所定の画素数。
なお、顔のキーポイントが検出されなかった場合は,近隣の部位(例えば首,肩など)のキーポイントの位置を元に,顔が含まれるであろう「限定領域」を設定してもよい。
(2) A rectangular area having a predetermined size centered on the center of gravity of the key point of the face may be defined as a "limited area". Here, the "predetermined size" may be specifically as follows.
(A) A predetermined ratio of facial key points to the size of the bounding box.
(B) A predetermined ratio of the key points of the body to the size of the bounding box.
(C) A predetermined ratio to the size of the source image.
(D) A predetermined number of pixels.
If the key points of the face are not detected, a "limited area" that will include the face may be set based on the positions of the key points of neighboring parts (for example, neck, shoulders, etc.). ..
図3の例では、限定領域抽出部162は例えば、顔のキーポイントのバウンディングボックスを所定の割合だけ広げた領域を「限定領域」として抽出する。これによって、限定領域H3が抽出される。そして、抽出された限定領域H3に対して、所望領域出力部163によって顔検出が実行されて、所望領域H3が出力される。この顔検出は、公知の方法を用いてもよい。
このように、限定領域抽出部162は、対象画像におけるキーポイント位置を推定し当該推定したキーポイント位置を用いて、前記対象画像から前記所望領域を含む限定領域を抽出する。
In the example of FIG. 3, the limited
In this way, the limited
<実施例2の処理>
続いて、実施例2の処理は、セマンティックセグメンテーションを使ったものである。実施例2について図4を用いて説明する。図4は、実施例2の処理について説明するための図である。図4において、限定領域抽出部162は、対象画像H1において、非特許文献2などのセマンティックセグメンテーションの技術を用いて、画像領域を分類して、人物領域を「限定領域」として抽出する。
<Processing of Example 2>
Subsequently, the process of Example 2 uses semantic segmentation. The second embodiment will be described with reference to FIG. FIG. 4 is a diagram for explaining the process of the second embodiment. In FIG. 4, the limited
図4では、対象画像H11に対して、限定領域抽出部162によってセマンティックセグメンテーションが実行されることによって、画像H12に示すように、人物領域R11、R12が抽出される。
限定領域抽出部162は、複数の人物領域が抽出された場合、画像の中心により近い人物領域を限定領域として抽出してもよいし、人物領域の大きさが最も大きい人物領域を限定領域として抽出してもよいし、画像の中心により近く且つ人物領域の大きさが最も大きい人物領域を限定領域として抽出してもよい。
図4の場合、例えば、限定領域抽出部162によって、人物領域R11、R12のうち、中心に近い、及び/又はより領域が大きい人物領域R11が限定領域として抽出される。図4の例の場合、限定領域H13は一例として、画像から人物領域R11に対して上及び左右にマージンを付けて抜き出した領域である。なお、これに限らず、限定領域H13は、人物領域R11に対して上及び左右にマージンがなくてもよく、人物領域R11にぴったり外接する矩形領域であってもよい。そして、抽出された限定領域H13に対して、所望領域出力部163によって顔検出が実行されて、所望領域H14が出力される。この顔検出は、公知の方法を用いてもよい。
In FIG. 4, when the limited
When a plurality of person areas are extracted, the limited
In the case of FIG. 4, for example, the limited
このように実施例2では、限定領域抽出部162は例えば、セマンティックセグメンテーションによる領域分類を実行し、当該領域分類の結果を用いて、前記対象画像から前記所望領域を含む限定領域を抽出する。
例えば、限定領域抽出部162は、セマンティックセグメンテーションによって対象画像を複数の領域に分け、当該領域毎に当該領域が表すカテゴリに分類し、ユーザが所望する所望領域の種類(例えば、人の顔)に対応するカテゴリ(例えば、人体)に分類された領域を略含む領域を限定領域として選択してもよい。所望領域出力部163は、当該選択された限定領域において当該所望領域を認識する処理(ここでは顔検出)を実行して、当該限定領域から所望領域(例えば、人の顔の画像領域)を抽出して出力してもよい。
As described above, in the second embodiment, the limited
For example, the limited
上記について具体例を用いて説明する。例えば、人と犬が写った画像の場合において、ユーザが所望する所望領域の種類が「人の顔」である場合を例に説明する。この場合、限定領域抽出部162は、セマンティックセグメンテーションによって対象画像を複数の画像領域に分け、その中から、犬の画像領域やその他の画像領域を無視して、人の画像領域のみを選択して、限定領域としてもよい。そして所望領域出力部163は、人の画像領域から人の「顔」を認識し、人の「顔」画像領域を、所望領域として出力してもよい。これにより、2段階で抽出することによって、複数のカテゴリの被写体が写った画像であっても、ユーザが所望する所望領域の種類に対応するカテゴリの画像領域(例えば人の画像領域)であって所望領域の種類の画像領域(例えば、人の顔の画像領域)だけを高精度に抽出することができる。
The above will be described with reference to specific examples. For example, in the case of an image showing a person and a dog, the case where the type of the desired region desired by the user is a "human face" will be described as an example. In this case, the limited
<実施例3の処理>
続いて、実施例3は、セマンティックセグメンテーションとキーポイント推定を使った実施例である。この場合、限定領域抽出部162はまず、対象画像に対してセマンティックセグメンテーションを実行し、人物領域を抽出する。そして限定領域抽出部162は、この人物領域に対して、前記の「キーポイント推定を使った実施例」の手法を実行し、「限定領域」を抽出してもよい。このように、限定領域抽出部162は、セマンティックセグメンテーションによって前記対象画像を複数の領域に分け、当該領域毎に当該領域が表すカテゴリに分類し、前記所望領域の種類に対応するカテゴリに分類された領域(例えば、人物領域)を略含む領域において、キーポイント位置を推定し、当該推定したキーポイントのうちの1個または複数個を含むように前記限定領域を作る。これにより、キーポイントを推定するときに、人物以外のもの(例えば、コンセント)などを対象とすることを未然に防止できる。
<Processing of Example 3>
Subsequently, Example 3 is an example using semantic segmentation and key point estimation. In this case, the limited
<変形例:限定領域を複数抽出する例>
以上の実施例では「限定領域」を1個(1人分)に絞り込んだが、数個(複数人)のままにしても良い。あるいは、「限定領域」の個数を,所定の個数(または所定の個数以下)に絞り込んでもよい。
<Modification example: Example of extracting multiple limited areas>
In the above embodiment, the "limited area" is narrowed down to one (for one person), but several (multiple people) may be left as they are. Alternatively, the number of "limited areas" may be narrowed down to a predetermined number (or a predetermined number or less).
続いて変形例について図5及び図6を用いて説明する。図5は、変形例の画面遷移の一例である。図5の画面G11、G12、G13は、例えば、アプリケーションを立ち上げて表示される画面である。画面G11では、対象画像がユーザによって選択されて表示されている画面の一例である。画面G11には、対象画像を選択するためのファイル選択用ボタンB11と、ユーザが抽出したい所望領域の種類を入力するための入力ボックスB12と、所望領域抽出の開始を指示するための抽出開始ボタンB13と、対象画像F11が表示されている。ここでは、対象画像F11として、一人の男性と一人の女性が写った画像が表示されている。入力ボックスB12ではなく、セレクトボックスや、複数のタグからの選択など、選択式であってもよい。 Subsequently, a modified example will be described with reference to FIGS. 5 and 6. FIG. 5 is an example of the screen transition of the modified example. The screens G11, G12, and G13 of FIG. 5 are, for example, screens displayed by launching an application. The screen G11 is an example of a screen in which the target image is selected and displayed by the user. On the screen G11, a file selection button B11 for selecting a target image, an input box B12 for inputting the type of a desired area to be extracted by the user, and an extraction start button for instructing the start of extraction of the desired area are displayed. B13 and the target image F11 are displayed. Here, as the target image F11, an image showing one man and one woman is displayed. Instead of the input box B12, a selection type such as a select box or selection from a plurality of tags may be used.
例えば、画面G11において、ユーザによって「抽出したい所望領域」として「人の顔」が入力され、抽出開始ボタンB13が押された場合、処理が実行されて、画面G12が表示される。画面G12では例えば、所望領域として、男性の顔の画像領域F12と女性の顔の画像領域F13の両方が、所望領域として表示される。 For example, on the screen G11, when the user inputs a "human face" as the "desired area to be extracted" and the extraction start button B13 is pressed, the process is executed and the screen G12 is displayed. On the screen G12, for example, both the male face image area F12 and the female face image area F13 are displayed as desired areas.
この場合の処理として、限定領域抽出部162は、複数の限定領域を抽出する。そして、所望領域出力部163は、選択された複数の限定領域のそれぞれから、所望領域を出力してもよい。表示制御部164は、出力された複数の所望領域のうち、少なくとも一つをユーザが選択可能にディスプレイ15に表示制御してもよい。これにより、ユーザが複数の所望領域から、1以上の領域を選択することができる。
As a process in this case, the limited
例えば、画面G12において、男性の顔の画像領域F12がユーザによって選択されて、画面G12の保存ボタンB14が押された場合、受付部165は、複数の所望領域のうちユーザによって選択された男性の顔の画像領域F12を受け付ける。記憶処理部166によって男性の顔の画像領域F12がストレージ13に保存され、画面G13に表示が遷移する。このように、受付部165は、複数の所望領域のうちユーザによって選択された1以上の所望領域を受け付ける。そして、記憶処理部166は、ユーザによって選択された1以上の所望領域をストレージ13に保存させる。これにより、ユーザが選択した所望の画像を活用することができる。
For example, on the screen G12, when the image area F12 of the male face is selected by the user and the save button B14 on the screen G12 is pressed, the
ユーザによって選択された領域は、ストレージ13に保存され、ユーザは該画像を使用する。たとえば、1枚の集合写真からユーザの自己の顔のみを保存し、サムネイル画像として使用するなどが考えられる。
The area selected by the user is stored in the
続いて図5の画面G11から画面G12に遷移する間に実行されている処理の一例について、説明する。図6は、変形例の処理を説明するための図である。図6において、限定領域抽出部162は、対象画像H21において、非特許文献2などの技術を用いて、セマンティックセグメンテーションが実行されることによって、画像H22に示すように、人物領域R21、R22が抽出される。
Subsequently, an example of the processing executed during the transition from the screen G11 to the screen G12 of FIG. 5 will be described. FIG. 6 is a diagram for explaining the processing of the modified example. In FIG. 6, the limited
そして、限定領域抽出部162によって、人物領域R21を含む限定領域H23が抽出され、人物領域R22を含む限定領域H24が抽出される。そして、所望領域出力部163によって、顔検出が実行され、所望領域H25、所望領域H26が出力される。
Then, the limited
図7は、変形例の処理の一例を示すフローチャートである。
(ステップS110)まずプロセッサ16は、対象画像が選択され所望領域の種類が指定された状態で、抽出開始ボタンが押されたか否か判定する。
FIG. 7 is a flowchart showing an example of processing of the modified example.
(Step S110) First, the
(ステップS120)ステップS110で、対象画像が選択され所望領の種域類が指定された状態で、抽出開始ボタンが押された場合、限定領域抽出部162は、対象画像から限定領域を抽出する。
(Step S120) When the extraction start button is pressed while the target image is selected and the species area of the desired region is specified in step S110, the limited
(ステップS130)次には、所望領域出力部163は、限定領域に対して所望領域を認識する処理を実行して、限定領域から所望領域を抽出して出力する。
(Step S130) Next, the desired
(ステップS140)次にプロセッサ16は、ユーザによって保存する所望領域が選択された状態で保存ボタンが押されたか否か判定する。
(Step S140) Next, the
(ステップS150)ステップS140で、ユーザによって保存する所望領域が選択された状態で保存ボタンが押された場合、ユーザによって選択された所望領域をストレージ13に保存させる。以上で本フローチャートの処理を終了する。
(Step S150) When the save button is pressed with the desired area to be saved by the user selected in step S140, the desired area selected by the user is saved in the
さらに複数の「限定領域」に優先度を付けてもよい。優先度を付けるには,前記の「複数人物のうちの1人に限定する方法」を使ってもよい。例えば、より多くの顔のキーポイントが検出された人物の「限定領域」の優先度を高くしてもよい。ユーザが「全身が写っている人物を優先する」ことを指定した場合、全身が写っている人物の「限定領域」の優先度を上げて、全身が写っている人物を優先して抽出されてもよい。この場合、限定領域抽出部162は、身体のキーポイントのうち、どのキーポイントが検出されたかによって、身体の写っている割合による優先度を設定してもよい。例えば限定領域抽出部162は、顔だけより顔を含む上半身が写っている方が優先度を高くし、顔を含む上半身だけ写っているより全身が写っている方が優先度を高く設定してもよい。
Further, a plurality of "limited areas" may be prioritized. To prioritize, the above-mentioned "method of limiting to one of a plurality of persons" may be used. For example, the priority of the "limited area" of the person in which more facial key points are detected may be increased. When the user specifies "priority is given to the person who has the whole body", the priority of the "limited area" of the person who has the whole body is raised, and the person who has the whole body is preferentially extracted. May be good. In this case, the limited
何を優先するかは、ユーザが選択可能であってもよく、取得部161は、所望領域の出力において優先する対象(例えば、大きい画像領域)を、ユーザによる優先度の指定に基づき取得可能であってもよい。この場合、限定領域抽出部162は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれに優先度を決定する。例えば、手前にいる人物の画像領域を抽出する場合、限定領域抽出部162は例えば、複数の限定領域のうち、画像領域が大きいほど、優先度を高くしてもよい。所望領域出力部163は、当該優先度に応じて所望領域を出力する。例えば、所望領域出力部163は、優先度が基準以上高い限定領域から所望領域を抽出して出力する。これにより、ユーザが優先するもの(例えば、手前にいる人物)の画像領域を取得することができる。
The user may select what to prioritize, and the
以上の実施例では,領域抽出したい部位が顔であるとしたが,これ以外の部位(例えば手)であってもよい。これにより、例えば人の手を抽出することができる。また、領域抽出したい対象が人であるとしたが、他の動物(例えば、犬または猫)であってもよい。これにより、例えば、犬の顔や猫の顔を抽出することができる。 In the above examples, the part to be extracted is the face, but other parts (for example, hands) may be used. Thereby, for example, a human hand can be extracted. Further, although it is assumed that the target for which the region is to be extracted is a person, it may be another animal (for example, a dog or a cat). Thereby, for example, the face of a dog or the face of a cat can be extracted.
以上、第1の実施形態に係る情報処理装置1は、対象画像におけるキーポイント位置の推定及び/又はセマンティックセグメンテーションによる領域分類を実行し、当該推定したキーポイント位置、及び/又は当該領域分類の結果を用いて、前記対象画像から所望領域を含む限定領域を抽出する限定領域抽出部162と、前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から所望領域を抽出して出力する所望領域出力部163と、を備える。
As described above, the information processing apparatus 1 according to the first embodiment executes the estimation of the key point position in the target image and / or the area classification by the semantic segmentation, and the estimated key point position and / or the result of the area classification. To execute a process of recognizing the desired region with respect to the extracted limited region and the limited
この構成によれば、キーポイントの推定、及び/又はセマンティックセグメンテーションによる対象画像内の画像領域の推定を用いることにより、所望領域を高精度に検出することができる。このため、対象画像から、所望領域とは異なる領域が誤って検出される可能性を低減することができる。
なお、表示制御部164は、限定領域抽出部162によって抽出された限定領域が複数ある場合、当該複数の限定領域をユーザが選択可能にディスプレイ15に表示制御してもよい。受付部165は、ユーザによって選択された限定領域を受け付ける受付部と、を備える。所望領域出力部163は、前記ユーザによって選択された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から所望領域を抽出して出力する。これにより、ユーザが複数の限定領域の中から1以上の限定領域を選択することで、ユーザによって選択された限定領域から所望領域が出力されるので、所望領域の出力精度を向上させることができる。
According to this configuration, the desired region can be detected with high accuracy by using the estimation of the key point and / or the estimation of the image region in the target image by semantic segmentation. Therefore, it is possible to reduce the possibility that a region different from the desired region is erroneously detected from the target image.
When there are a plurality of limited areas extracted by the limited
<第2の実施形態>
続いて第2の実施形態について説明する。第1の実施形態では、ユーザが使用する情報処理装置1によって処理を実行したが、第2の実施形態では、ユーザが使用する端末装置が通信回路網を介して接続されたコンピュータシステムによって実行される。
図8は、第2の実施形態に係る情報処理システムの概略構成図である。図8に示すように、情報処理システムSは一例として、端末装置3−1、…、3−N(Nは自然数)と、端末装置3−1〜3−Nそれぞれと通信回路網NWを介して接続されたコンピュータシステム2を備える。コンピュータシステム2は、端末装置3−1、…、3−Nからの要求に応じて、処理を実行する。ここではコンピュータシステム2は一例として、一台のサーバであるものとして説明するが、これに限定されるものではなく、クラウドサービスのように複数のコンピュータで構成されてもよい。
<Second embodiment>
Subsequently, the second embodiment will be described. In the first embodiment, the process is executed by the information processing device 1 used by the user, but in the second embodiment, the terminal device used by the user is executed by the computer system connected via the communication network. NS.
FIG. 8 is a schematic configuration diagram of the information processing system according to the second embodiment. As shown in FIG. 8, the information processing system S is, as an example, via the terminal devices 3-1, ..., 3-N (N is a natural number), the terminal devices 3-1 to 3-N, and the communication network NW. The
端末装置3−1〜3−Nは、別々のユーザが使用する端末装置であり、例えば、多機能携帯電話(いわゆるスマートフォン)などの携帯電話、タブレット、電子書籍リーダー、ノートパソコンなどのモバイルデバイス、またはデスクトップパソコンなどである。端末装置3−1〜3−Nは例えば、WEBブラウザを用いて、コンピュータシステム2から送信された情報を表示してもよいし、端末装置3−1〜3−Nにインストールされたアプリケーションにおいて、コンピュータシステム2から送信された情報を表示してもよい。
The terminal devices 3-1 to 3 to N are terminal devices used by different users, and are, for example, mobile phones such as multifunctional mobile phones (so-called smartphones), tablets, electronic book readers, mobile devices such as laptop computers, and the like. Or a desktop computer. The terminal devices 3-1 to 3-N may display the information transmitted from the
図9は、本実施形態に係るコンピュータシステムの概略構成図である。図9に示すように、コンピュータシステム2は例えば、入力インタフェース21と、通信モジュール22と、ストレージ23と、メモリ24と、プロセッサ25とを備える。
入力インタフェース11は、コンピュータシステム2の管理者の操作を受け付け、受け付けた操作に応じた入力信号をプロセッサ25へ出力する。
通信モジュール22は、通信回路網NWに接続されて、通信回路網NWに接続されている端末装置3−1〜3−Nと通信する。この通信は有線であっても無線であってもよい。
FIG. 9 is a schematic configuration diagram of a computer system according to the present embodiment. As shown in FIG. 9, the
The
The
ストレージ23には、プロセッサ16が読み出して実行するためのプログラム及び各種のデータが格納されている。
メモリ24は、データ及びプログラムを一時的に保持する。メモリ14は、揮発性メモリであり、例えばRAM(Random Access Memory)である。
The
The
プロセッサ25は、ストレージ23から第1の実施形態に係るプログラムをメモリ24にロードし、当該プログラムに含まれる一連の命令を実行することによって、取得部161、限定領域抽出部162、所望領域出力部163、表示制御部164、受付部165、記憶処理部166として機能する。これらの機能は、第1の実施形態と同様であるので、その説明を省略する。
The
なお、コンピュータシステム2の一部の機能が、端末装置3−1〜3−Nで実現されてもよい。
It should be noted that some functions of the
なお、上述した実施形態で説明した情報処理装置1の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、情報処理装置1の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。 At least a part of the information processing apparatus 1 described in the above-described embodiment may be configured by hardware or software. When configured by software, a program that realizes at least a part of the functions of the information processing device 1 may be stored in a recording medium such as a flexible disk or a CD-ROM, read by a computer, and executed. The recording medium is not limited to a removable one such as a magnetic disk or an optical disk, and may be a fixed recording medium such as a hard disk device or a memory.
また、情報処理装置1の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。 Further, a program that realizes at least a part of the functions of the information processing device 1 may be distributed via a communication line (including wireless communication) such as the Internet. Further, the program may be encrypted, modulated, compressed, and distributed via a wired line or wireless line such as the Internet, or stored in a recording medium.
さらに、一つまたは複数の情報処理機器によって情報処理装置1を機能させてもよい。複数の情報処理機器を用いる場合、情報処理機器のうちの1つをコンピュータとし、当該コンピュータが所定のプログラムを実行することにより情報処理装置1の少なくとも1つの手段として機能が実現されてもよい。 Further, the information processing apparatus 1 may be operated by one or a plurality of information processing devices. When a plurality of information processing devices are used, one of the information processing devices may be a computer, and the function may be realized as at least one means of the information processing device 1 by executing a predetermined program by the computer.
また、方法の発明においては、全ての工程(ステップ)をコンピュータによって自動制御で実現するようにしてもよい。また、各工程をコンピュータに実施させながら、工程間の進行制御を人の手によって実施するようにしてもよい。また、さらには、全工程のうちの少なくとも一部を人の手によって実施するようにしてもよい。 Further, in the invention of the method, all the steps (steps) may be realized by automatic control by a computer. Further, the progress control between the processes may be manually performed while the computer is used to perform each process. Further, at least a part of the whole process may be manually performed.
以上、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 As described above, the present invention is not limited to the above-described embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. Further, components over different embodiments may be combined as appropriate.
1 情報処理装置
11 入力インタフェース
12 通信モジュール
13 ストレージ
14 メモリ
15 ディスプレイ
16 プロセッサ
161 取得部
162 限定領域抽出部
163 所望領域出力部
164 表示制御部
165 受付部
166 記憶処理部
17 カメラ
2 コンピュータシステム
21 入力インタフェース
22 通信モジュール
23 ストレージ
24 メモリ
25 プロセッサ
3−1〜3−N 端末装置
S 情報処理システム
1
Claims (11)
前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から前記所望領域を抽出して出力する所望領域出力部と、
前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部と、
を備え、
前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、
前記所望領域出力部は、当該優先度に応じて前記所望領域を出力し、
前記限定領域抽出部は、前記複数の限定領域それぞれの優先度を決定する場合、より多くの特定部位のキーポイントが検出された動物の優先度を高くする
情報処理装置。 Estimate the key point position in the target image and / or perform region classification by semantic segmentation, and use the estimated key point position and / or the result of the region classification to extract a limited region including the desired region from the target image. Limited area extraction unit to extract and
A desired region output unit that executes a process of recognizing the desired region on the extracted limited region, extracts the desired region from the limited region, and outputs the desired region.
An acquisition unit that acquires a priority target in the output of the desired area based on a priority specification by the user,
With
The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and determines the priority of each of the plurality of limited areas.
The desired area output unit outputs the desired area according to the priority.
The limited area extraction unit is an information processing device that raises the priority of an animal in which more key points of a specific site are detected when determining the priority of each of the plurality of limited areas.
前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から前記所望領域を抽出して出力する所望領域出力部と、
前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部と、
を備え、
前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、
前記所望領域出力部は、当該優先度に応じて前記所望領域を出力し、
前記限定領域抽出部は、前記複数の限定領域それぞれの優先度を決定する場合、より多くの身体のキーポイントが検出された動物の優先度を高くする
情報処理装置。 Estimate the key point position in the target image and / or perform region classification by semantic segmentation, and use the estimated key point position and / or the result of the region classification to extract a limited region including the desired region from the target image. Limited area extraction unit to extract and
A desired region output unit that executes a process of recognizing the desired region on the extracted limited region, extracts the desired region from the limited region, and outputs the desired region.
An acquisition unit that acquires a priority target in the output of the desired area based on a priority specification by the user,
With
The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and determines the priority of each of the plurality of limited areas.
The desired area output unit outputs the desired area according to the priority.
When determining the priority of each of the plurality of limited regions, the limited region extraction unit raises the priority of the animal in which more key points of the body are detected.
Information processing apparatus.
前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から前記所望領域を抽出して出力する所望領域出力部と、
前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部と、
を備え、
前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、
前記所望領域出力部は、当該優先度に応じて前記所望領域を出力し、
前記限定領域抽出部は、前記複数の限定領域それぞれの優先度を決定する場合、特定部位のキーポイントのバウンディングボックスが大きい動物の優先度を高くする
情報処理装置。 Estimate the key point position in the target image and / or perform region classification by semantic segmentation, and use the estimated key point position and / or the result of the region classification to extract a limited region including the desired region from the target image. Limited area extraction unit to extract and
A desired region output unit that executes a process of recognizing the desired region on the extracted limited region, extracts the desired region from the limited region, and outputs the desired region.
An acquisition unit that acquires a priority target in the output of the desired area based on a priority specification by the user,
With
The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and determines the priority of each of the plurality of limited areas.
The desired area output unit outputs the desired area according to the priority.
When determining the priority of each of the plurality of limited regions, the limited region extraction unit raises the priority of an animal having a large bounding box of a key point of a specific site.
Information processing apparatus.
前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から前記所望領域を抽出して出力する所望領域出力部と、
前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部と、
を備え、
前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、
前記所望領域出力部は、当該優先度に応じて前記所望領域を出力し、
前記限定領域抽出部は、前記複数の限定領域それぞれの優先度を決定する場合、身体のキーポイントのバウンディングボックスが大きい動物の優先度を高くする
情報処理装置。 Estimate the key point position in the target image and / or perform region classification by semantic segmentation, and use the estimated key point position and / or the result of the region classification to extract a limited region including the desired region from the target image. Limited area extraction unit to extract and
A desired region output unit that executes a process of recognizing the desired region on the extracted limited region, extracts the desired region from the limited region, and outputs the desired region.
An acquisition unit that acquires a priority target in the output of the desired area based on a priority specification by the user,
With
The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and determines the priority of each of the plurality of limited areas.
The desired area output unit outputs the desired area according to the priority.
When determining the priority of each of the plurality of limited regions, the limited region extraction unit raises the priority of an animal having a large bounding box of a key point of the body.
Information processing apparatus.
前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から前記所望領域を抽出して出力する所望領域出力部と、
前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部と、
を備え、
前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、
前記所望領域出力部は、当該優先度に応じて前記所望領域を出力し、
前記限定領域抽出部は、前記複数の限定領域それぞれの優先度を決定する場合、全身が写っている動物の優先度を上げる
情報処理装置。 Estimate the key point position in the target image and / or perform region classification by semantic segmentation, and use the estimated key point position and / or the result of the region classification to extract a limited region including the desired region from the target image. Limited area extraction unit to extract and
A desired region output unit that executes a process of recognizing the desired region on the extracted limited region, extracts the desired region from the limited region, and outputs the desired region.
An acquisition unit that acquires a priority target in the output of the desired area based on a priority specification by the user,
With
The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and determines the priority of each of the plurality of limited areas.
The desired area output unit outputs the desired area according to the priority.
When determining the priority of each of the plurality of limited regions, the limited region extraction unit raises the priority of the animal in which the whole body is shown.
Information processing apparatus.
前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から前記所望領域を抽出して出力する所望領域出力部と、
前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部と、
を備え、
前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、
前記所望領域出力部は、当該優先度に応じて前記所望領域を出力し、
前記限定領域抽出部は、前記複数の限定領域それぞれの優先度を決定する場合、身体のキーポイントのうち、どのキーポイントが検出されたかによって、身体の写っている割合による優先度を設定する
情報処理装置。 Estimate the key point position in the target image and / or perform region classification by semantic segmentation, and use the estimated key point position and / or the result of the region classification to extract a limited region including the desired region from the target image. Limited area extraction unit to extract and
A desired region output unit that executes a process of recognizing the desired region on the extracted limited region, extracts the desired region from the limited region, and outputs the desired region.
An acquisition unit that acquires a priority target in the output of the desired area based on a priority specification by the user,
With
The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and determines the priority of each of the plurality of limited areas.
The desired area output unit outputs the desired area according to the priority.
When determining the priority of each of the plurality of limited areas, the limited area extraction unit sets the priority according to the ratio of the body image depending on which key point is detected among the key points of the body.
Information processing apparatus.
前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から前記所望領域を抽出して出力する所望領域出力部と、
前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部と、
を備え、
前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、
前記所望領域出力部は、当該優先度に応じて前記所望領域を出力し、
前記限定領域抽出部は、前記複数の限定領域それぞれの優先度を決定する場合、特定部位だけより特定部位を含む半身が写っている方が優先度を高くする
情報処理装置。 Estimate the key point position in the target image and / or perform region classification by semantic segmentation, and use the estimated key point position and / or the result of the region classification to extract a limited region including the desired region from the target image. Limited area extraction unit to extract and
A desired region output unit that executes a process of recognizing the desired region on the extracted limited region, extracts the desired region from the limited region, and outputs the desired region.
An acquisition unit that acquires a priority target in the output of the desired area based on a priority specification by the user,
With
The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and determines the priority of each of the plurality of limited areas.
The desired area output unit outputs the desired area according to the priority.
When determining the priority of each of the plurality of limited regions, the limited region extraction unit has a higher priority when the half body including the specific portion is shown than only the specific portion.
Information processing apparatus.
前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から前記所望領域を抽出して出力する所望領域出力部と、
前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部と、
を備え、
前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、
前記所望領域出力部は、当該優先度に応じて前記所望領域を出力し、
前記限定領域抽出部は、前記複数の限定領域それぞれの優先度を決定する場合、特定部位を含む半身だけ写っているより全身が写っている方が優先度を高くする
情報処理装置。 Estimate the key point position in the target image and / or perform region classification by semantic segmentation, and use the estimated key point position and / or the result of the region classification to extract a limited region including the desired region from the target image. Limited area extraction unit to extract and
A desired region output unit that executes a process of recognizing the desired region on the extracted limited region, extracts the desired region from the limited region, and outputs the desired region.
An acquisition unit that acquires a priority target in the output of the desired area based on a priority specification by the user,
With
The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and determines the priority of each of the plurality of limited areas.
The desired area output unit outputs the desired area according to the priority.
When determining the priority of each of the plurality of limited areas, the limited area extraction unit gives higher priority to the whole body than to the half body including a specific part.
Information processing apparatus.
前記抽出された限定領域に対して前記所望領域を認識する処理を実行して、前記限定領域から前記所望領域を抽出して出力する所望領域出力部と、
前記所望領域の出力において優先する対象を、ユーザによる優先度の指定に基づき取得する取得部と、
を備え、
前記限定領域抽出部は、複数の限定領域を抽出し、当該優先する対象に応じて、複数の限定領域それぞれの優先度を決定し、
前記所望領域出力部は、当該優先度に応じて前記所望領域を出力し、
前記限定領域抽出部は、前記複数の限定領域それぞれの優先度を決定する場合、画像領域が大きいほど優先度を高くする
情報処理装置。 Estimate the key point position in the target image and / or perform region classification by semantic segmentation, and use the estimated key point position and / or the result of the region classification to extract a limited region including the desired region from the target image. Limited area extraction unit to extract and
A desired region output unit that executes a process of recognizing the desired region on the extracted limited region, extracts the desired region from the limited region, and outputs the desired region.
An acquisition unit that acquires a priority target in the output of the desired area based on a priority specification by the user,
With
The limited area extraction unit extracts a plurality of limited areas, determines the priority of each of the plurality of limited areas according to the priority target, and determines the priority of each of the plurality of limited areas.
The desired area output unit outputs the desired area according to the priority.
When the limited area extraction unit determines the priority of each of the plurality of limited areas, the larger the image area, the higher the priority.
Information processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020149204A JP6927540B1 (en) | 2020-09-04 | 2020-09-04 | Information processing equipment, information processing system, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020149204A JP6927540B1 (en) | 2020-09-04 | 2020-09-04 | Information processing equipment, information processing system, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6927540B1 true JP6927540B1 (en) | 2021-09-01 |
JP2022043749A JP2022043749A (en) | 2022-03-16 |
Family
ID=77456265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020149204A Active JP6927540B1 (en) | 2020-09-04 | 2020-09-04 | Information processing equipment, information processing system, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6927540B1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4043973B2 (en) * | 2003-02-27 | 2008-02-06 | 株式会社東芝 | Face detection system and method |
JP2007081732A (en) * | 2005-09-13 | 2007-03-29 | Canon Inc | Imaging apparatus |
JP5867425B2 (en) * | 2013-02-28 | 2016-02-24 | カシオ計算機株式会社 | Imaging apparatus, imaging processing method, and program |
JP6851295B2 (en) * | 2017-01-27 | 2021-03-31 | 株式会社デンソーアイティーラボラトリ | Object detection system, object detection device, object detection program, and object detection method |
-
2020
- 2020-09-04 JP JP2020149204A patent/JP6927540B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2022043749A (en) | 2022-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764091B (en) | Living body detection method and apparatus, electronic device, and storage medium | |
EP3105921B1 (en) | Photo composition and position guidance in an imaging device | |
CN106682632B (en) | Method and device for processing face image | |
US10616475B2 (en) | Photo-taking prompting method and apparatus, an apparatus and non-volatile computer storage medium | |
CN108197618B (en) | Method and device for generating human face detection model | |
CN110100251B (en) | Apparatus, method, and computer-readable storage medium for processing document | |
WO2021213067A1 (en) | Object display method and apparatus, device and storage medium | |
WO2019237745A1 (en) | Facial image processing method and apparatus, electronic device and computer readable storage medium | |
KR20140076632A (en) | Image recomposition using face detection | |
US11468571B2 (en) | Apparatus and method for generating image | |
WO2020244074A1 (en) | Expression interaction method and apparatus, computer device, and readable storage medium | |
CN105430269B (en) | A kind of photographic method and device applied to mobile terminal | |
WO2021190625A1 (en) | Image capture method and device | |
CN111818385B (en) | Video processing method, video processing device and terminal equipment | |
CN112150347A (en) | Image modification patterns learned from a limited set of modified images | |
WO2023197648A1 (en) | Screenshot processing method and apparatus, electronic device, and computer readable medium | |
US11163821B2 (en) | Image extraction apparatus, image extraction method, and recording medium storing an image extraction program | |
KR20140010525A (en) | Emoticon service system and emoticon service providing method thereof | |
CN117351115A (en) | Training method of image generation model, image generation method, device and equipment | |
WO2016082470A1 (en) | Method for image processing, device and computer storage medium | |
CN108055461B (en) | Self-photographing angle recommendation method and device, terminal equipment and storage medium | |
JP6927540B1 (en) | Information processing equipment, information processing system, information processing method and program | |
US20180189602A1 (en) | Method of and system for determining and selecting media representing event diversity | |
KR101738896B1 (en) | Fitting virtual system using pattern copy and method therefor | |
WO2022110059A1 (en) | Video processing method, scene recognition method, terminal device, and photographic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200904 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210112 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210727 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6927540 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |