JP2018156416A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2018156416A JP2018156416A JP2017052937A JP2017052937A JP2018156416A JP 2018156416 A JP2018156416 A JP 2018156416A JP 2017052937 A JP2017052937 A JP 2017052937A JP 2017052937 A JP2017052937 A JP 2017052937A JP 2018156416 A JP2018156416 A JP 2018156416A
- Authority
- JP
- Japan
- Prior art keywords
- rectangle
- information processing
- image
- area
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来から、画像に写っている物体が何か、またその位置は画像中のどこにあるのか、を認識する物体検出手法が研究されており、特に近年、ディープラーニングと呼ばれる機械学習技術を応用した物体検出手法が数多く提案されている。 Conventionally, object detection methods for recognizing what an object is in the image and where the position is in the image have been studied.In particular, in recent years, an object using machine learning technology called deep learning has been applied. Many detection methods have been proposed.
非特許文献1には、従来のディープラーニングを応用した物体検出手法と比較して物体の大きさをより正確に、良好な精度で検出することを特徴とする物体検出手法について開示されている。
Non-Patent
しかし、非特許文献1には、検出対象画像の解像度やアスペクト比を変更した多くの画像を作成し、それらのすべての画像に対して、物体を検出するためにニューラルネットワークによって多くの回数処理されるため、検出速度が遅いという課題がある。特に、スマートフォンなどのカメラ付きデバイスで撮影した画像に対して物体検出を行い、その結果を確認する時などには、利便性が低くなるという課題がある。また、検出対象の物体によっては、検出精度が低いという課題がある。
However, in Non-Patent
そのため、例えばスマートフォンなどのカメラ付きデバイスで撮影した画像に対して物体検出を行った時に、物体検出結果を素早く確認するため、物体検出処理をより速く処理することが望まれる。また、さらに精度良く物体を検出することも望まれる。 Therefore, for example, when object detection is performed on an image captured with a camera-equipped device such as a smartphone, it is desired to perform the object detection process faster in order to quickly confirm the object detection result. It is also desired to detect an object with higher accuracy.
そこで、本発明は、処理速度および精度の高い物体検出手法を提供することを目的とする。 Accordingly, an object of the present invention is to provide an object detection method with high processing speed and accuracy.
本発明の情報処理装置は、 The information processing apparatus of the present invention
本発明によれば、処理速度および精度の高い物体検出手法を提供することが可能となる。 According to the present invention, it is possible to provide an object detection method with high processing speed and accuracy.
以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施形態における情報処理システム(物体検出システム)の構成の一例を示す図である。 FIG. 1 is a diagram illustrating an example of a configuration of an information processing system (object detection system) according to an embodiment of the present invention.
物体検出システムは、スマートフォンなど撮像手段を備える携帯端末100、物体検出サーバ200が、LAN300を介して接続される構成となっている。 The object detection system has a configuration in which a portable terminal 100 including an imaging unit such as a smartphone and an object detection server 200 are connected via a LAN 300.
携帯端末100は、デバイスに備え付けられラカメラ(撮像手段)を使って物体検出処理の対象となる画像を撮影する。撮影した画像に対して、利用者の物体位置ヒント指示を受け付け、画像と物体位置ヒントとを物体検出サーバ200へ送信する。そして、物体検出サーバ200から物体検出結果の受信を行う。 The portable terminal 100 captures an image to be subjected to object detection processing using a camera (imaging means) provided in the device. A user's object position hint instruction is received for the captured image, and the image and the object position hint are transmitted to the object detection server 200. Then, the object detection result is received from the object detection server 200.
物体検出サーバ200は、携帯端末100から送信された画像と、物体位置ヒントとを利用して物体検出処理を行い、物体検出結果を携帯端末100へ送信する。 The object detection server 200 performs an object detection process using the image transmitted from the mobile terminal 100 and the object position hint, and transmits the object detection result to the mobile terminal 100.
図2は、本発明の実施形態における携帯端末100、物体検出サーバ200に適用可能な情報処理装置のハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram illustrating an example of a hardware configuration of an information processing apparatus applicable to the mobile terminal 100 and the object detection server 200 according to the embodiment of the present invention.
図2に示すように、携帯端末100、物体検出サーバ200は、システムバス204を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、入力コントローラ205、ビデオコントローラ206、メモリコントローラ207、よび通信I/Fコントローラ208が接続される。
As shown in FIG. 2, the mobile terminal 100 and the object detection server 200 are connected via a
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
The
ROM202あるいは外部メモリ211は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。
The
RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。
The
入力コントローラ205は、キーボード209や不図示のマウス等のポインティングデバイス等の入力装置からの入力を制御する。入力装置がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。
The
また、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。 The touch panel may be a touch panel capable of detecting a position touched with a plurality of fingers, such as a multi-touch screen.
ビデオコントローラ206は、ディスプレイ210などの外部出力装置への表示を制御する。ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作を受け付け可能な装置については、入力装置も提供する。
The
なおビデオコントローラ206は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM203の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。
Note that the
メモリコントローラ207は、外部メモリ211へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等を利用可能である。
The
通信I/Fコントローラ209は、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の3G回線を用いた通信が可能である。
The communication I /
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。
次に図3を参照して、本発明の実施形態における各種装置の機能構成の一例について説明する。
Note that the
Next, with reference to FIG. 3, an example of a functional configuration of various apparatuses according to the embodiment of the present invention will be described.
物体位置ヒント受付部101は、画像に対してユーザにより指定された位置を取得する機能を備える。ステップS402においてユーザから位置の指定を受け付け、当該指定された位置を取得する(S404)処理を実行する。
The object position
送信制御部102は、カメラ撮影部105により撮影された画像と、物体位置ヒント受付部101により指定された位置に係る情報とを物体検出サーバ200に送信する機能を備える。
The
受信制御部103は、物体検出サーバ200の物体検出処理部202による処理結果を受信する機能を備える。
The
物体検出結果確認部104は、受信制御部103において受信した結果に基づき、生成された矩形などの情報を表示する機能をそなえる。詳細はステップS407において説明する。
The object detection
受信制御部201は送信制御部102から送信されたデータを受信(入力)する(ステップS404の処理である)。
The
物体検出処理部202は、ステップS405、図5のフローチャートに示す処理を実行する機能部であり、指定された位置を始点として領域を拡大していくことで、検出対象の物体が含まれる領域を特定し、特定された領域を示す情報を出力する。具体的には、指定された位置を中心とする矩形を生成し、生成された矩形に前記検出対象の物体が包含されるかを判定し、包含される判定された場合、検出対象の物体が含まれる領域として特定する。さらに、生成された矩形に検出対象物体が含まれないと判定された場合には、当該矩形を拡大した矩形を生成する。具体的な内容は、フローチャートを用いて後述する。
The object
送信制御部203は、物体検出処理部202における処理の結果を携帯端末100に送信する機能を備える。
The
次に図4、図5のフローチャートを用いて、本発明の実施形態における物体検出システムが実行する処理について説明する。 Next, processing executed by the object detection system according to the embodiment of the present invention will be described using the flowcharts of FIGS. 4 and 5.
図5のフローチャートは、携帯端末100、物体検出サーバ200のCPU201が所定の制御プログラムを読み出して実行する処理であり、物体検出する処理を示すフローチャートである。
The flowchart of FIG. 5 is a flowchart showing a process of detecting an object, which is a process in which the
ステップS401では、携帯端末100のCPU201は、利用者からの撮影指示を受けつけ、内蔵されたカメラにより画像を撮影する。
In step S <b> 401, the
ステップS402では、携帯端末100のCPU201は、ステップS401で撮影した画像を表示部に表示し、利用者からの物体位置ヒントの指示(位置の指定)を受け付ける。物体位置ヒントは、例えば、表示されている画像に利用者が指でタッチ操作を行うなどの操作によって指示される。
In step S402, the
また、撮影時に物体の位置を所定の位置(領域)に合わせて撮影するよう誘導し、当該所定の位置を指定された位置としてもよい。 Further, it is possible to guide the object to be photographed in accordance with a predetermined position (area) at the time of photographing, and the predetermined position may be set as the designated position.
また、本実施例においては、スマートフォン等のカメラ機能付き携帯端末において物体位置ヒントの指示を受け付ける形態を想定しているが、PCなどに撮影された画像を表示し、マウスクリック等により物体位置ヒントの指示を受け付けても良い。 Further, in this embodiment, it is assumed that a mobile terminal with a camera function such as a smartphone accepts an object position hint instruction, but an image taken on a PC or the like is displayed, and the object position hint is displayed by a mouse click or the like. May be accepted.
このように、ユーザから物体位置または物体位置のヒント(目安)の指定を受け付ける構成であれば、いずれの態様であってもよい。 As described above, any configuration may be used as long as the specification of the object position or the hint (reference) of the object position is received from the user.
ステップS403では、携帯端末100のCPU201は、ステップS401で撮影した画像とステップS402で受け付けた物体位置ヒントとを、物体検出サーバ200へ送信する。
In step S403, the
ステップS404では、物体検出サーバ200のCPU201は、ステップS403で送信された画像と物体位置ヒント(ユーザにより指定された位置を示す情報)を受信(取得)する。
In step S404, the
ステップS405では、物体検出サーバ200のCPU201は、ステップS404で受信した画像と物体位置ヒントを用いて、画像に対し、物体検出処理を行う。ステップS405の詳細な処理については、図5のフローチャートを用いて後述する。
In step S405, the
ステップS406では、物体検出サーバ200のCPU201は、ステップS405の物体検出処理によって得られた物体検出結果とステップS404で受信した画像とを携帯端末100へ送信する。物体検出結果は、物体の画像上での位置と大きさを示す、矩形の左上の点の座標および右下の点の座標と、で表現される。物体が検出されなかった場合は、左上の点と右下の点の座標が全て0として表現されるとする。
In step S406, the
ステップS407では、携帯端末100のCPU201は、ステップS406で送信された物体検出結果と画像を受信し、例えば、画像上に、物体検出結果である矩形を赤色の線で描画し、当該画像を表示する。
In step S407, the
次に図5のフローチャートを用いて、本発明の実施形態における物体検出サーバ200が実行する処理について説明する。 Next, processing executed by the object detection server 200 according to the embodiment of the present invention will be described using the flowchart of FIG.
図5のフローチャートは、物体検出サーバ200のCPU201が所定の制御プログラムを読み出して実行する処理であり、画像と物体位置ヒントを利用して物体検出処理を行う処理を示すフローチャートである。
The flowchart in FIG. 5 is a process in which the
ステップS501では、物体検出サーバ200のCPU201は、物体位置ヒントの座標から、初期の処理対象である矩形の座標情報を生成する。矩形の座標情報は、物体位置ヒントのX座標およびY座標から5を引いた座標を矩形の左上の点座標と、物体位置ヒントのX座標およびY座標に5を足した座標を矩形の右下の点座標と、で保持される。したがって、初期の処理対象である矩形は、幅と高さが10であり、中心位置が物体位置ヒントとなる。なお、本実施例で説明する初期の処理対象である矩形のサイズや、S505等における修正量は一例であり、検出対象の物体などに応じて適宜設定できるものとする。
In step S501, the
ステップS502では、物体検出サーバ200のCPU201は、処理対象矩形の座標情報で示される領域で構成される画像(部分画像)を生成する。そして、生成された部分画像を、非特許文献1で示される物体検出手法であるAttentionNetへと入力し、部分画像の、左上の点および右下の点に対する識別結果を取得する。また、部分画像の幅と高さをメモリ領域に記憶する。
In step S502, the
ここで、AttentionNetとは、検出対象物体の大きさを正確に検出できているか否かにより、画像左上の点に対して、下、右、右下、停止、FALSEのいずれかを識別し、画像右下の点に対して、上、左、左上、停止、FALSEのいずれかを識別する、ディープニューラルネットワークである。 Here, “AttentionNet” identifies one of “down”, “right”, “bottom right”, “stop”, and “FALSE” with respect to the upper left point of the image depending on whether or not the size of the detection target object has been accurately detected. It is a deep neural network that identifies one of top, left, top left, stop, and FALSE for the lower right point.
検出物体が対象画像(本実施例における部分画像)に正確な大きさで包含される(検出物体が対象画像にちょうど包含される)場合に、「停止」が出力される。すなわち、左上と右下ともに停止が出力された場合には、検出物体に外接する矩形が生成されたことを意味する。 When the detected object is included in the target image (partial image in this embodiment) with an accurate size (the detected object is included in the target image), “stop” is output. That is, when a stop is output for both the upper left and lower right, it means that a rectangle circumscribing the detected object has been generated.
FALSEは、対象画像に、検出物体は含まれていないことを示している。 FALSE indicates that the detection object is not included in the target image.
停止とFALSE以外は、当該方向へ座標を移動させ、対象画像の領域を変更(縮小)すると、検出対象物体をより正確な大きさで囲むことができる(検出物体に外接する矩形を生成できる)ことを示している。 Except for stop and FALSE, if the coordinates are moved in this direction and the area of the target image is changed (reduced), the detection target object can be surrounded with a more accurate size (a rectangle circumscribing the detection object can be generated). It is shown that.
また、ここで利用するAttentionNetは、非特許文献1で示されるように、検出対象物体を検出可能なように、事前に学習されたディープニューラルネットワークを用いることとする。
In addition, as shown in
ステップS503では、物体検出サーバ200のCPU201は、ステップS502で取得した左上の点の識別結果が右下または停止、かつ、右下の点の識別結果が左上または停止であれば、検出対象物体が収まる矩形が生成できたと判定して、現在の処理対象矩形の座標情報を物体検出結果とし、処理を終了する。そうでなければステップS504へ進む。
In step S503, the
なお、本実施例においては、矩形の大きさを段階的に拡大していくことで、検出対象物体が収まる矩形を生成するため、「停止」を通り越してしまうことがある。すなわち、検出対象物体にちょうど外接する矩形を通り越して拡大してしまうこともある。そのため、S503の判定において、「停止」の場合だけでなく、左上の点の識別結果が右下の場合、かつ、右下の点の識別結果が左上の場合もYESと判定するよう制御している。 Note that in this embodiment, by gradually expanding the size of the rectangle, a rectangle in which the object to be detected is accommodated is generated, and thus “stop” may be passed. That is, the image may be enlarged past a rectangle just circumscribing the detection target object. Therefore, in the determination of S503, control is performed not only in the case of “stop” but also when the identification result of the upper left point is lower right and when the identification result of the lower right point is upper left, it is determined to be YES. Yes.
なお、後述のS504の処理の説明の通り、矩形が小さいうちは誤検出の可能性も高いため、「停止」の場合にはYESと判定せず、「左上の点の識別結果が右下の場合、かつ、右下の点の識別結果が左上の場合」にのみYESと判定するよう制御してもよい。 As described in the processing of S504, which will be described later, since the possibility of false detection is high while the rectangle is small, it is not determined YES in the case of “stop”, and “the identification result of the upper left point is lower right. In such a case, control may be performed so as to determine YES only when the identification result of the lower right point is upper left.
ステップS504では、物体検出サーバ200のCPU201は、ステップS502で取得した左上の点の識別結果が、FALSEであれば、ステップS505へ進む。そうでなければ、ステップS506へ進む。
In step S504, if the identification result of the upper left point acquired in step S502 is FALSE, the
なお、上述のS503の処理の説明の通り、矩形が小さいうち(例えば所定のサイズに満たない場合)は誤検出の可能性も高いため、「停止」の場合にもYESと判定するよう制御してもよい。 As described in the above-described processing of S503, since the possibility of erroneous detection is high while the rectangle is small (for example, when the rectangle is less than a predetermined size), control is performed so as to determine YES even in the case of “stop”. May be.
ステップS505では、物体検出サーバ200のCPU201は、処理対象矩形の座標情報の、左上の点のX座標およびY座標から5を引き、X座標が0より小さい場合は0に、Y座標が0より小さい場合は0に、座標を修正し、ステップS510へと進む。
In step S505, the
ステップS506では、物体検出サーバ200のCPU201は、ステップS502で取得した左上の点の識別結果が、下であれば、ステップS507へ進む。そうでなければ、ステップS508へ進む。
In step S506, the
ステップS507では、物体検出サーバ200のCPU201は、処理対象矩形の座標情報の、左上の点のX座標から5を引いて、X座標が0より小さい場合は0に座標を修正し、ステップS510へと進む。すなわち、左上の点の識別結果が下である場合は、Y座標方向については検出対象物体を包含しているものの、X座標方向については、検出対象物体を包含するためにはさらに拡大する必要があることを意味している。そのため、X座標方向について拡大する処理を実行する。
In step S507, the
ステップS508では、物体検出サーバ200のCPU201は、ステップS502で取得した左上の点の識別結果が、右であれば、ステップS509へ進む。そうでなければ、ステップS510へ進む。
In step S508, the
ステップS509では、物体検出サーバ200のCPU201は、処理対象矩形の座標情報の、左上の点のY座標から5を引いて、Y座標が0より小さい場合は0に座標を修正し、ステップS510へと進む。すなわち、左上の点の識別結果が右である場合は、X座標方向については検出対象物体を包含しているものの、Y座標方向については、検出対象物体を包含するためにはさらに拡大する必要があることを意味している。そのため、Y座標方向について拡大する処理を実行する。
In step S509, the
ステップS510では、物体検出サーバ200のCPU201は、ステップS502で取得した右下の点の識別結果が、FALSEであれば、ステップS511へ進む。そうでなければ、ステップS512へ進む。
In step S510, if the result of identifying the lower right point acquired in step S502 is FALSE, the
なお、上述のS504の処理と同様に、矩形が小さいうち(例えば所定のサイズに満たない場合)は誤検出の可能性も高いため、「停止」の場合にもYESと判定するよう制御してもよい。 As in the above-described processing of S504, while the rectangle is small (for example, when it is less than the predetermined size), there is a high possibility of erroneous detection. Also good.
ステップS511では、物体検出サーバ200のCPU201は、処理対象矩形の座標情報の、右下の点のX座標およびY座標に5を足し、X座標が画像の幅以上の場合、X座標を画像の幅から1を引いた値に、Y座標が画像の高さ以上の場合、Y座標を画像の高さから1を引いた値に、座標を修正し、ステップS516へと進む。
In step S511, the
ステップS512では、物体検出サーバ200のCPU201は、テップS502で取得した右下の点の識別結果が、上であれば、ステップS513へ進む。そうでなければ、ステップS514へ進む。
In step S512, the
ステップS513では、物体検出サーバ200のCPU201は、処理対象矩形の座標情報の、右下の点のX座標に5を足し、X座標が画像の幅以上の場合、X座標を画像の幅から1を引いた値に、座標を修正し、ステップS516へと進む。
In step S513, the
すなわち、右上の点の識別結果が上である場合は、Y座標方向については検出対象物体を包含しているものの、X座標方向については、検出対象物体を包含するためにはさらに拡大する必要があることを意味している。そのため、X座標方向について拡大する処理を実行する。 That is, when the identification result of the upper right point is up, the Y coordinate direction includes the detection target object, but the X coordinate direction needs to be further enlarged to include the detection target object. It means that there is. Therefore, a process for enlarging the X coordinate direction is executed.
ステップS514では、物体検出サーバ200のCPU201は、テップS502で取得した右下の点の識別結果が、左であれば、ステップS515へ進む。そうでなければ、ステップS502へ進む。
In step S514, if the identification result of the lower right point acquired in step S502 is left, the
ステップS515では、物体検出サーバ200のCPU201は、処理対象矩形の座標情報の、右下の点のY座標に5を足し、Y座標が画像の高さ以上の場合、Y座標を画像の高さから1を引いた値に、座標を修正し、ステップS516へと進む。
In step S515, the
すなわち、右上の点の識別結果が左である場合は、X座標方向については検出対象物体を包含しているものの、Y座標方向については、検出対象物体を包含するためにはさらに拡大する必要があることを意味している。そのため、Y座標方向について拡大する処理を実行する。 That is, when the identification result of the upper right point is left, the X coordinate direction includes the detection target object, but the Y coordinate direction needs to be further expanded to include the detection target object. It means that there is. Therefore, a process for enlarging in the Y coordinate direction is executed.
ステップS516では、物体検出サーバ200のCPU201は、ステップS502でメモリ領域に記憶した部分画像の幅と高さと、現在の処理対象矩形の座標情報で示される領域の幅と高さとを、比較し、幅と高さともに等しい場合(すなわち、S604等による座標修正前と後でサイズが変わっていない場合。例えば、画像全体のサイズと矩形領域のサイズが同一の場合などがある。)は、物体は検出できなかったと判定し、左上の点および右下の点のX座標とY座標が全て0の座標情報を、物体検出結果として処理を終了する。
In step S516, the
以上、図5のフローチャートの処理によって、物体位置ヒントを利用し、矩形情報を徐々に拡大させながら、当該矩形で特定される領域の画像を、非特許文献1で示されるAttentionNetへと繰り返し入力することで、高速にかつ物体の大きさをより正確に検出することができる。
As described above, the image of the region specified by the rectangle is repeatedly input to the AttentionNet shown in
以上、情報処理装置としての実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 The embodiment as the information processing apparatus has been described above, but the present invention can take an embodiment as a system, apparatus, method, program, recording medium, or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.
また、本発明におけるプログラムは、図5、図6に示すフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は図5、図6の処理方法をコンピュータが実行可能なプログラムが記憶されている。なお、本発明におけるプログラムは図5、図6の各装置の処理方法ごとのプログラムであってもよい。 The program according to the present invention is a program that allows a computer to execute the processing methods of the flowcharts shown in FIGS. 5 and 6. The storage medium according to the present invention is a program that allows the computer to execute the processing methods of FIGS. Is remembered. Note that the program in the present invention may be a program for each processing method of each apparatus shown in FIGS.
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。 As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium recording the program constitutes the present invention.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。 As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk or the like can be used.
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 The present invention may be applied to a system constituted by a plurality of devices or an apparatus constituted by a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or apparatus can enjoy the effects of the present invention. In addition, all the structures which combined each embodiment mentioned above and its modification are also included in this invention.
100 情報処理装置
200 物体検出サーバ
300 LAN
100 Information processing apparatus 200 Object detection server 300 LAN
Claims (6)
前記位置取得手段により取得した位置を始点として領域を拡大していくことで、検出対象の物体が含まれる領域を特定する領域特定手段と、
前記領域特定手段により特定された領域を示す情報を出力する出力手段と、
を備えることを特徴とする情報処理システム。 Position acquisition means for acquiring a position designated by the user with respect to the image;
An area specifying means for specifying an area including an object to be detected by expanding the area starting from the position acquired by the position acquiring means;
Output means for outputting information indicating the area specified by the area specifying means;
An information processing system comprising:
前記矩形生成手段により生成された矩形に前記検出対象の物体が包含されるかを判定する判定手段と、
を備え、
前記生成された矩形に検出対象物体が包含される判定された場合、検出対象の物体が含まれる領域として特定することを特徴とする請求項1に記載の情報処理システム。 Rectangle generating means for generating a rectangle centered on the position acquired by the position acquiring means;
Determining means for determining whether the object to be detected is included in the rectangle generated by the rectangle generating means;
With
The information processing system according to claim 1, wherein when it is determined that a detection target object is included in the generated rectangle, the information processing system is specified as a region including the detection target object.
前記位置取得手段は、前記表示手段によりタッチパネルに表示された画像に対するタッチ操作を受け付けることで、前記位置の指定を受け付け、当該指定を受け付けた位置を取得することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。 Display means for displaying the input image on a touch panel;
The position acquisition means receives a touch operation on an image displayed on a touch panel by the display means, thereby receiving the designation of the position and acquiring the position where the designation is accepted. The information processing system according to any one of the above.
前記位置取得工程において取得した位置を始点として領域を拡大していくことで、検出対象の物体が含まれる領域を特定する領域特定工程と、
前記領域特定工程により特定された領域を示す情報を出力する出力工程と、
を備えることを特徴とする情報処理方法。 A position acquisition step of acquiring a position specified by the user with respect to the image;
A region specifying step for specifying a region including an object to be detected by expanding the region starting from the position acquired in the position acquiring step;
An output step of outputting information indicating the region specified by the region specifying step;
An information processing method comprising:
前記情報処理装置を、
画像に対してユーザにより指定された位置を取得する位置取得手段と、
前記位置取得手段により取得した位置を始点として領域を拡大していくことで、検出対象の物体が含まれる領域を特定する領域特定手段と、
前記領域特定手段により特定された領域を示す情報を出力する出力手段として機能させるためのプログラム。 A program executable in the information processing apparatus,
The information processing apparatus;
Position acquisition means for acquiring a position designated by the user with respect to the image;
An area specifying means for specifying an area including an object to be detected by expanding the area starting from the position acquired by the position acquiring means;
A program for functioning as output means for outputting information indicating an area specified by the area specifying means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017052937A JP2018156416A (en) | 2017-03-17 | 2017-03-17 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017052937A JP2018156416A (en) | 2017-03-17 | 2017-03-17 | Information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018156416A true JP2018156416A (en) | 2018-10-04 |
Family
ID=63717320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017052937A Pending JP2018156416A (en) | 2017-03-17 | 2017-03-17 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018156416A (en) |
-
2017
- 2017-03-17 JP JP2017052937A patent/JP2018156416A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9479693B2 (en) | Method and mobile terminal apparatus for displaying specialized visual guides for photography | |
US20180136806A1 (en) | Display control apparatus, display control method, and program | |
US10163266B2 (en) | Terminal control method, image generating method, and terminal | |
US20110273474A1 (en) | Image display apparatus and image display method | |
US11029766B2 (en) | Information processing apparatus, control method, and storage medium | |
EP3096207B1 (en) | Display control method, data process apparatus, and program | |
US20160012612A1 (en) | Display control method and system | |
US10013156B2 (en) | Information processing apparatus, information processing method, and computer-readable recording medium | |
US9880721B2 (en) | Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method | |
US20170004652A1 (en) | Display control method and information processing apparatus | |
KR20160138279A (en) | Method and device for operating target application on corresponding equipment | |
JP6217437B2 (en) | Terminal apparatus, information processing apparatus, display control method, and display control program | |
US10031667B2 (en) | Terminal device, display control method, and non-transitory computer-readable recording medium | |
KR20150106823A (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
WO2015072091A1 (en) | Image processing device, image processing method, and program storage medium | |
JP6607243B2 (en) | Information processing apparatus, information processing method, and program | |
JP2018156416A (en) | Information processing apparatus, information processing method, and program | |
JP2018074429A (en) | Information processing device, information processing method, and program | |
JP2019012453A (en) | Information processing device, control method therefor, and program | |
JP5910654B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
KR102614026B1 (en) | Electronic device having a plurality of lens and controlling method thereof | |
JP6826281B2 (en) | Information processing equipment, information processing methods, programs | |
JP6646226B2 (en) | Information processing apparatus, information processing method, and program | |
JP2018088154A (en) | Information processor, information processing method, and program | |
JP2018097280A (en) | Display unit, display method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180703 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181031 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190111 |