JP2004338889A - Image recognition device - Google Patents

Image recognition device Download PDF

Info

Publication number
JP2004338889A
JP2004338889A JP2003138086A JP2003138086A JP2004338889A JP 2004338889 A JP2004338889 A JP 2004338889A JP 2003138086 A JP2003138086 A JP 2003138086A JP 2003138086 A JP2003138086 A JP 2003138086A JP 2004338889 A JP2004338889 A JP 2004338889A
Authority
JP
Japan
Prior art keywords
information
camera
image
article
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003138086A
Other languages
Japanese (ja)
Other versions
JP4135556B2 (en
Inventor
Isao Tazawa
功 田澤
Fumiko Kureyama
史子 紅山
Toshio Moriya
俊夫 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003138086A priority Critical patent/JP4135556B2/en
Publication of JP2004338889A publication Critical patent/JP2004338889A/en
Application granted granted Critical
Publication of JP4135556B2 publication Critical patent/JP4135556B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Warehouses Or Storage Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image recognition device capable of analyzing image of a camera loaded on a movable body to perform collection and management of article information automatically. <P>SOLUTION: The image photographed by the movable body provided with the camera 101 is analyzed to constitute the device collecting and managing article information. This device is provided with a movable body control means for controlling movement of the movable body, a movable body parameter inference means for obtaining or inferring information such as position, attitude, and speed of the movable body, an imaging means for obtaining image by controlling position, attitude, and zoom value of the camera, a camera parameter inference means for obtaining or inferring information such as position, attitude, and zoom value of the camera, a symbol recognition means for recognizing characters and symbols giving features to the article from the photographed image, and a position inference means for inferring a position of article. Conventionally, a catalog put in electronic data for management is used to retrieve books in a library, and a book must be confirmed by human labor to confirm matching of information of the catalog with actual situation of the book in management work of books, thereby increasing worker's burden. But, it is possible to solve the problem by this device. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、移動体に搭載されたカメラの映像を解析して物品に関する情報収集、管理を行うための映像認識装置に関する。
【0002】
【従来の技術】
従来、例えば図書館等では、書籍管理のために図書の目録を使用している。目録は電子データとして蓄積され、コンピュータを使用した検索や管理が容易に行えるようになっている(例えば下記非特許文献1等参照)。
【0003】
【非特許文献1】
永田治樹、“図書館目録の現状と将来:メタデータとOPAC”、情報の科学と技術、Vol.46、No.3、pp.106−113、1996.
【0004】
【発明が解決しようとする課題】
書籍等の管理業務では、上記従来技術による目録の電子データの管理以外に、その情報と書籍の実際の状況の整合性を確認するために、人手で書籍そのものを確認するという作業が必要である。この作業は、作業者の大きな負担となる。
【0005】
そこで、本発明では、移動体に搭載されたカメラの映像を解析して物品の情報収集や管理を自動的に実行するための映像認識装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明では以下の手段を設ける。
(1)移動体の運動を制御する移動体制御手段と、移動体の位置、姿勢、速度等の情報を取得、もしくは推定する移動体パラメータ推定手段と、カメラの位置、姿勢、ズーム値を制御して映像を取得する撮影手段と、カメラの位置、姿勢、ズーム値等の情報を取得、もしくは推定するカメラパラメータ推定手段と、撮影した映像からその物品を特徴づける文字や記号を認識する記号認識手段と、物品の位置を推定する位置推定手段を備えた装置を構成する。
(2)情報提示手段を備え、物品を格納する領域の地図上での物品の位置情報、物品の格納された棚等の場所での物品の詳細な位置情報、および物品の色や形状等が識別可能な映像を提示する。
(3)情報管理手段を備え、記号認識手段および位置推定手段で検出された物品の情報を用いて、物品の管理情報を更新する。
(4)領域情報推定手段を備え、撮影された映像を用いて物品を格納する領域における空き領域を推定する。
【0007】
【発明の実施の形態】
本発明は、移動体に搭載されたカメラの映像を解析して物品の情報収集や管理を自動的に実行するための映像認識装置に関する。具体的には、下記の方法を実施するソフトウェア、またはハードウェアを作成することにより実現できる。
【0008】
図1は、本実施例における映像認識装置の構成図である。本装置は、センサ群101から104、移動ロボット110、計算機120、コンソール130、および外部記憶装置140から構成される。
【0009】
センサとしては、カメラ101、音響センサ102、駆動系状態計測用センサ103、および姿勢計測用センサ104a,104bを使用する。カメラ数、音響センサ数は1以上とする。カメラ101の焦点距離、姿勢等のパラメータはあらかじめ校正し、それをカメラパラメータの初期値とする。音響センサ102としては、音波を発信して反射波を観測することにより距離計測が可能であるアクティブソナーを使用する。駆動系状態計測用センサ103としてはロータリエンコーダやタコジェネレータを使用し、姿勢計測用センサ104としてはジャイロ等を使用する。
【0010】
移動ロボット110にはコントローラ111が内蔵されている。コントローラ111では、移動ロボットに搭載の音響センサ102の観測データの取得や、駆動装置112(車輪)の状態計測、および制御を行う。
【0011】
計算機120では、カメラ101の映像データの取得および画像処理、カメラ101や移動ロボット110の制御量の算出を行う。カメラ101の映像データの受信、移動ロボット110の状態パラメータの受信、および制御コマンドの送信には、無線もしくは有線の通信手段を使用する。
【0012】
コンソール130では、カメラ映像の表示、移動ロボット110の状態等の表示、収集した物品情報の表示、および各種パラメータの設定等を行う。
【0013】
外部記憶装置140には、物品の管理データ、物品を格納する領域の地図データ等が格納されている。
【0014】
図2は、映像認識装置における処理のブロック図である。以下、各処理について説明する。なお、以下では、図3に示すように移動ロボット110を書棚301付近に移動させて、書棚の書籍302を撮影し、その映像より認識される書籍のタイトルから所望の書籍を探索する状況を仮定する。
【0015】
映像入力部211では、カメラ101の映像データを取得する。このデータに対してA/D変換等の前処理を行い、処理後の映像データを出力する。
【0016】
図4に映像入力部211で得られる映像データの例を示す。同じ書籍を撮影した場合でも、カメラ101や移動ロボット110の位置、姿勢により、異なる映像データが得られる。
【0017】
姿勢計測部212では、姿勢計測用センサ104a,104bによりカメラ101および移動体110の姿勢を計測する。
【0018】
駆動系状態計測部213では、駆動装置112の状態、すなわち回転数および回転角を取得する。これらのデータから移動ロボット110の位置、速度、および角度(進行方向)を算出する。ここで、位置および角度は移動ロボット110の初期位置を基準とした値として得られる。
【0019】
移動体パラメータ推定部222では、後述の移動体制御部223で1時刻前に算出された状態パラメータ(移動体110の位置、姿勢、速度)の変更量に基づいて、移動体110の状態パラメータを更新する。また、姿勢計測部212、駆動系状態計測部221で得られた移動体110の位置、姿勢データを用いて状態パラメータを補正する。
【0020】
カメラパラメータ推定部213では、後述のカメラ制御部214で1時刻前に算出されたカメラパラメータ(カメラ101の位置、姿勢、焦点距離(ズーム値))の変更量、および移動体パラメータ推定部222で算出された移動ロボット110の状態パラメータに基づいて、カメラパラメータを更新する。また、姿勢計測部212で計測した姿勢データや、時系列の複数の映像データを使用して推定した焦点距離、位置、姿勢データを用いてカメラパラメータを補正する。複数の映像データを使用したパラメータの推定方法としては、下記文献2等に記載の方法を使用することができる。
【0021】
文献2:服部進ら、“ターゲット場の多重撮影による基準点のないCCDカメラキャリブレーション”、信学論D−II、Vol.82、No.9、pp.1391−1400、1999.
カメラ制御部214では、映像撮影部211で取得した映像データ、およびカメラパラメータ推定部213で算出したカメラパラメータに基づいて、カメラ101により所望の映像が得られるように、カメラパラメータの変更量(制御量)の算出、および制御コマンドの決定を行う。ここで、所望の映像とは、例えば書棚301の書籍302にピントが合っている映像等を意味する。算出した制御量および制御コマンドに基づいて、カメラの焦点距離および姿勢を制御する。
【0022】
移動体制御部223では、移動体パラメータ推定部222で算出した移動ロボット110の状態パラメータに基づいて、移動ロボット110が所望の行動をとるように、変更量(制御量)の算出、および制御コマンドの決定を行う。ここで、所望の行動は、(a)設定された距離になるまで書棚301に接近する、(b)接近後書棚301と平行に移動する、などのようにあらかじめ設定しておく。算出した制御量および制御コマンドに基づいて、駆動装置の回転数および回転角を算出し、駆動装置を制御する。
【0023】
記号認識部231では、映像データから物品を特徴づける記号や文字を認識する。ここでの処理は、映像補正処理、記号領域抽出処理および記号認識処理の3つに大別される。映像補正処理では、映像データの幾何変換を行い、物品上で記号や文字等が存在する面の回転や歪を補正する。本処理では、異なる条件で撮影した映像データを一定の条件で撮影した(例えば、書籍に正対した状態で撮影した)映像データに変換する。本処理は必要に応じて実行する。記号領域抽出処理では、映像データの中から認識対象となる記号や文字列の存在する領域を切り出す。記号や文字が複数存在する場合には、各記号、文字の切り出しも行う。記号認識処理では、切り出した記号や文字の特徴を解析して、その記号や文字の表す内容を認識する。認識の際には、外部記憶装置140内のデータと照合する。これらの具体的な方法としては、下記文献3等に記載の各種方法を使用することができる。
【0024】
文献3:”信学技報(PRMU96−180〜191)”、電子情報通信学会、1997.
図5に画像401について映像補正処理を実行した例を示す。この例では、本処理により書籍のタイトルの回転を補正し、書籍の正面から撮影した映像に変換している。図6に画像501について記号領域抽出処理を実行した例を示す。この例に示すように、本処理により書籍のタイトル領域602のみが抽出される。また、各文字の切り出しも同時に行う。この抽出データを用いて、記号認識処理により各タイトルを認識する。
【0025】
位置推定部232では、記号認識部231で抽出した物品のカメラ映像上の位置、およびカメラパラメータ推定部213で推定されたカメラパラメータを使用して、その物品の実空間内における位置を算出する。具体的には、その物品が撮影された複数の映像を使用して、各映像を撮影したカメラ位置とそのカメラ映像上の物品の検出位置を結ぶ直線の交点を算出する。本方法については、各映像上の検出位置に推定誤差がある場合等も含めて下記文献4に記載されている。
【0026】
文献4:高木幹雄、下田陽久、“画像解析ハンドブック”、東京大学出版会、1991.
物品の位置は3次元の座標値として得られる。この座標と書棚の位置の対応を外部記憶装置140にあらかじめ格納しておくことにより、どの書棚の、どの位置に、どの書籍があるのかという情報を得ることができる。
【0027】
情報管理部233では、記号認識部231で抽出した物品の情報と位置推定部232で推定したその物品の位置情報を用いて、外部記憶装置140内の物品に関する管理情報を更新する。
【0028】
情報表示部234では、地図上での物品の位置情報、物品の格納された棚等の場所でのより詳細な位置情報、および物品の色や形状等が識別可能な映像を提示する。
【0029】
図7に書籍の位置の推定結果をコンソール130上に表示した例を示す。図702には、各書棚703、移動ロボット110の位置704、書籍の位置705が表示され、その書籍の置かれた書棚を地図上で確認することができる。図706には、各書棚707、書籍の位置708が表示され、その書棚における書籍の位置を確認することができる。
【0030】
上記記号認識部231では、物品を特徴づける記号や文字を認識し、物品そのものを検出する。それに対して、広域の領域を撮影した映像を使用することにより、物品を格納するための領域の空きを推定することも可能である。具体的な方法としては、記号認識部231、位置推定部232における物品の検出結果(物品の個数および位置)と、外部記憶装置140に格納された物品の情報(大きさ等)から空き領域を推定する。その他、上記文献4等に記載の、映像中のオブジェクトの分類手法等を使用することができる。
【0031】
図8に広域の領域を撮影した映像の例を示す。このような映像から、書棚および書籍の領域802,803を推定することにより、書棚301内の空き領域804,805を推定する。
【0032】
以上のように、移動ロボットを自動走行させて映像を撮影し、その映像から物品を特徴づける記号や文字を認識することにより、物品の情報収集および管理を自動的に実行することができる。
【0033】
【発明の効果】
本発明によれば、移動体にカメラを搭載して、その運動を自動制御しながら映像を撮影し、その映像を使用して物品を特徴づける記号や文字を認識することにより、物品の情報収集や管理を自動的に実行する映像認識装置を提供することができる。
【図面の簡単な説明】
【図1】映像認識装置の構成図。
【図2】映像認識装置における処理のブロック図。
【図3】移動ロボットによる撮影状況の例。
【図4】映像撮影部で得られる映像データの例。
【図5】映像補正処理後の映像データの例。
【図6】記号領域抽出処理後の映像データの例。
【図7】物品位置推定結果の表示例。
【図8】広域映像の例。
【符号の説明】
101…カメラ、102…音響センサ、103…駆動系状態計測用センサ、104a,104b…姿勢計測用センサ、110…移動ロボット、111…コントローラ、112…駆動装置、120…計算機、130…コンソール、140…外部記憶装置、301…書棚、302…書籍、401…カメラ映像、501…映像補正処理後の映像、601…映像中の文字の検出結果、701…コンソールにおける情報提示例、801…広域映像の例。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a video recognition device for analyzing a video of a camera mounted on a moving body to collect and manage information on articles.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, for example, libraries and the like use catalogs of books for book management. The catalog is stored as electronic data, and can be easily searched and managed using a computer (for example, see Non-Patent Document 1 below).
[0003]
[Non-patent document 1]
Haruki Nagata, "Present and Future of Library Cataloging: Metadata and OPAC", Information Science and Technology, Vol. 46, no. 3, pp. 106-113, 1996.
[0004]
[Problems to be solved by the invention]
In the management work of books and the like, in addition to the management of electronic data of catalogs according to the above-described conventional technology, it is necessary to manually check the books themselves in order to check the consistency between the information and the actual situation of the books. . This operation places a heavy burden on the operator.
[0005]
Therefore, an object of the present invention is to provide a video recognition device for analyzing a video of a camera mounted on a moving body and automatically executing information collection and management of articles.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides the following means.
(1) Moving body control means for controlling the movement of the moving body, moving body parameter estimating means for acquiring or estimating information such as the position, posture, and speed of the moving body, and controlling the position, posture, and zoom value of the camera. Photographing means for obtaining an image by taking a picture, camera parameter estimating means for acquiring or estimating information such as the position, posture, and zoom value of a camera; and symbol recognition for recognizing characters and symbols characterizing the article from the taken video. Means and an apparatus comprising position estimating means for estimating the position of the article.
(2) Equipped with an information presenting means, the position information of the article on the map of the area where the article is stored, the detailed position information of the article at a place such as a shelf where the article is stored, and the color and shape of the article are displayed. Present an identifiable video.
(3) An information management unit is provided, and the management information of the article is updated using information of the article detected by the symbol recognition unit and the position estimation unit.
(4) A region information estimating unit is provided, and a vacant region in a region for storing articles is estimated using the captured video.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
The present invention relates to a video recognition device for analyzing a video of a camera mounted on a moving body and automatically collecting and managing information on articles. Specifically, it can be realized by creating software or hardware for implementing the following method.
[0008]
FIG. 1 is a configuration diagram of the video recognition device in the present embodiment. This device is composed of a group of sensors 101 to 104, a mobile robot 110, a computer 120, a console 130, and an external storage device 140.
[0009]
As the sensors, a camera 101, an acoustic sensor 102, a drive system state measurement sensor 103, and posture measurement sensors 104a and 104b are used. The number of cameras and the number of acoustic sensors are one or more. Parameters such as the focal length and posture of the camera 101 are calibrated in advance, and are used as the initial values of the camera parameters. As the acoustic sensor 102, an active sonar capable of measuring a distance by transmitting a sound wave and observing a reflected wave is used. A rotary encoder or a tachogenerator is used as the drive system state measurement sensor 103, and a gyro or the like is used as the attitude measurement sensor 104.
[0010]
A controller 111 is built in the mobile robot 110. The controller 111 performs acquisition of observation data of the acoustic sensor 102 mounted on the mobile robot, measurement of the state of the driving device 112 (wheel), and control.
[0011]
The computer 120 acquires video data of the camera 101 and performs image processing, and calculates a control amount of the camera 101 and the mobile robot 110. Wireless or wired communication means is used for receiving the video data of the camera 101, receiving the state parameters of the mobile robot 110, and transmitting control commands.
[0012]
The console 130 performs display of camera images, display of the state of the mobile robot 110, display of collected article information, setting of various parameters, and the like.
[0013]
The external storage device 140 stores management data of articles, map data of an area for storing articles, and the like.
[0014]
FIG. 2 is a block diagram of a process in the video recognition device. Hereinafter, each process will be described. In the following, it is assumed that the mobile robot 110 is moved to the vicinity of the bookshelf 301 as shown in FIG. 3, the book 302 on the bookshelf is photographed, and a desired book is searched from the title of the book recognized from the video. I do.
[0015]
The video input unit 211 acquires video data of the camera 101. Preprocessing such as A / D conversion is performed on the data, and the processed video data is output.
[0016]
FIG. 4 shows an example of video data obtained by the video input unit 211. Even when the same book is photographed, different video data can be obtained depending on the position and orientation of the camera 101 and the mobile robot 110.
[0017]
The posture measurement unit 212 measures the postures of the camera 101 and the moving body 110 using the posture measurement sensors 104a and 104b.
[0018]
The drive system state measurement unit 213 acquires the state of the drive device 112, that is, the number of rotations and the rotation angle. From these data, the position, speed, and angle (traveling direction) of the mobile robot 110 are calculated. Here, the position and the angle are obtained as values based on the initial position of the mobile robot 110.
[0019]
The moving body parameter estimating unit 222 calculates the state parameter of the moving body 110 based on the change amount of the state parameter (the position, posture, and speed of the moving body 110) calculated one time before by the moving body control unit 223 described later. Update. Further, the state parameter is corrected using the position and posture data of the moving body 110 obtained by the posture measurement unit 212 and the drive system state measurement unit 221.
[0020]
In the camera parameter estimating unit 213, the amount of change in the camera parameters (the position, posture, and focal length (zoom value) of the camera 101) calculated one time before by the camera control unit 214 described later, and the moving object parameter estimating unit 222. The camera parameters are updated based on the calculated state parameters of the mobile robot 110. Also, the camera parameters are corrected using the posture data measured by the posture measurement unit 212 and the focal length, position, and posture data estimated using a plurality of time-series video data. As a method of estimating parameters using a plurality of video data, a method described in the following document 2 or the like can be used.
[0021]
Reference 2: Susumu Hattori, "CCD Camera Calibration without Reference Point by Multiple Imaging of Target Field", IEICE D-II, Vol. 82, no. 9, pp. 1391-1400, 1999.
The camera controller 214 changes the camera parameters based on the video data acquired by the video photographing unit 211 and the camera parameters calculated by the camera parameter estimator 213 so that the camera 101 can obtain a desired video. Amount) and the control command is determined. Here, the desired image means, for example, an image in which the book 302 on the bookshelf 301 is in focus. The focal length and attitude of the camera are controlled based on the calculated control amount and control command.
[0022]
The mobile control unit 223 calculates a change amount (control amount) and a control command based on the state parameter of the mobile robot 110 calculated by the mobile parameter estimation unit 222 so that the mobile robot 110 takes a desired action. Make a decision. Here, the desired behavior is set in advance such as (a) approaching the bookshelf 301 until the set distance is reached, (b) moving parallel to the bookshelf 301 after approaching, and the like. Based on the calculated control amount and the control command, the number of rotations and the rotation angle of the driving device are calculated, and the driving device is controlled.
[0023]
The symbol recognition unit 231 recognizes a symbol or a character that characterizes the article from the video data. The processing here is roughly classified into three: image correction processing, symbol area extraction processing, and symbol recognition processing. In the image correction process, the image data is geometrically transformed to correct the rotation and distortion of the surface of the article on which symbols, characters, and the like exist. In this processing, video data captured under different conditions is converted into video data captured under certain conditions (for example, captured in a state of facing a book). This processing is executed as needed. In the symbol area extraction processing, an area where a symbol or a character string to be recognized exists is extracted from the video data. When there are a plurality of symbols and characters, each symbol and character are also cut out. In the symbol recognition process, the characteristics of the extracted symbols and characters are analyzed to recognize the contents represented by the symbols and characters. At the time of recognition, the data is compared with the data in the external storage device 140. As these specific methods, various methods described in the following Reference 3 and the like can be used.
[0024]
Reference 3: "IEICE Technical Report (PRMU 96-180 to 191)", IEICE, 1997.
FIG. 5 shows an example in which the image correction processing is performed on the image 401. In this example, the rotation of the title of the book is corrected by this processing, and the image is converted into a video taken from the front of the book. FIG. 6 shows an example in which a symbol area extraction process has been performed on the image 501. As shown in this example, only the title region 602 of the book is extracted by this processing. In addition, each character is cut out at the same time. Each title is recognized by a symbol recognition process using the extracted data.
[0025]
The position estimating unit 232 calculates the position of the article in the real space using the position on the camera image of the article extracted by the symbol recognition unit 231 and the camera parameters estimated by the camera parameter estimating unit 213. Specifically, using a plurality of videos of the article, the intersection of a straight line connecting the camera position at which the video was captured and the detected position of the article on the camera video is calculated. This method is described in the following document 4 including the case where the detection position on each image has an estimation error.
[0026]
Reference 4: Mikio Takagi and Hirohisa Shimoda, "Image Analysis Handbook", University of Tokyo Press, 1991.
The position of the article is obtained as a three-dimensional coordinate value. By storing the correspondence between the coordinates and the position of the bookshelf in the external storage device 140 in advance, it is possible to obtain information as to which book on which bookshelf, at which position there is a book.
[0027]
The information management unit 233 updates the management information of the article in the external storage device 140 using the information of the article extracted by the symbol recognition unit 231 and the position information of the article estimated by the position estimation unit 232.
[0028]
The information display unit 234 presents position information of an item on a map, more detailed position information at a location such as a shelf where the item is stored, and an image that can identify the color and shape of the item.
[0029]
FIG. 7 shows an example in which the result of estimating the position of a book is displayed on the console 130. In FIG. 702, each bookcase 703, the position 704 of the mobile robot 110, and the book position 705 are displayed, and the bookcase where the book is placed can be confirmed on the map. In FIG. 706, each bookcase 707 and book position 708 are displayed, and the position of the book on the bookcase can be confirmed.
[0030]
The symbol recognition unit 231 recognizes a symbol or a character that characterizes an article, and detects the article itself. On the other hand, it is also possible to estimate the free space in the area for storing articles by using a video image of a wide area. As a specific method, an empty area is determined based on the detection result (the number and position of the articles) of the articles by the symbol recognition unit 231 and the position estimation unit 232 and the information (such as the size) of the articles stored in the external storage device 140. presume. In addition, a method of classifying objects in a video described in Document 4 or the like can be used.
[0031]
FIG. 8 shows an example of a video image of a wide area. By estimating the bookcase and book areas 802 and 803 from such an image, the free areas 804 and 805 in the bookcase 301 are estimated.
[0032]
As described above, by automatically moving the mobile robot to capture an image, and by recognizing the symbols and characters characterizing the article from the image, information collection and management of the article can be automatically executed.
[0033]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, a camera is mounted on a moving body, an image is taken while automatically controlling its movement, and symbols and characters characterizing the article are recognized using the image, thereby collecting information on the article. And a video recognition device that automatically executes management.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a video recognition device.
FIG. 2 is a block diagram of processing in the video recognition device.
FIG. 3 is an example of a shooting situation by a mobile robot.
FIG. 4 is an example of video data obtained by a video photographing unit.
FIG. 5 is an example of video data after a video correction process.
FIG. 6 is an example of video data after a symbol area extraction process.
FIG. 7 is a display example of an article position estimation result.
FIG. 8 is an example of a wide area image.
[Explanation of symbols]
Reference Signs List 101: camera, 102: acoustic sensor, 103: drive system state measurement sensor, 104a, 104b: posture measurement sensor, 110: mobile robot, 111: controller, 112: drive device, 120: computer, 130: console, 140 .., External storage device, 301, bookshelf, 302, book, 401, camera video, 501, video after video correction processing, 601, detection result of characters in the video, 701, information presentation example on the console, 801, wide area video Example.

Claims (4)

移動ロボットに搭載されたカメラの映像を解析して物品の情報を収集、管理する装置であり、
既移動体の運動を制御する移動体制御手段と、
既移動体の位置、姿勢、速度等の情報を取得、もしくは推定する移動体パラメータ推定手段と、
既カメラの位置、姿勢、ズーム値を制御して映像を取得する撮影手段と、
既カメラの位置、姿勢、ズーム値等の情報を取得、もしくは推定するカメラパラメータ推定手段と、
撮影した既映像から既物品を特徴づける文字や記号を認識する認識手段と、
既物品の位置を推定する位置推定手段と
を備えることを特徴とする映像認識装置。
It is a device that collects and manages information on articles by analyzing the image of the camera mounted on the mobile robot,
Moving body control means for controlling the movement of the already moving body,
A moving body parameter estimating means for acquiring or estimating information such as the position, posture, and speed of the already moving body,
A photographing means for controlling the position, posture, and zoom value of the already-camera to acquire an image,
Camera parameter estimating means for acquiring or estimating information such as the position, posture, and zoom value of the already-existing camera;
Recognizing means for recognizing characters and symbols characterizing the existing article from the already taken video;
A video recognizing device comprising: a position estimating unit for estimating a position of an existing article.
請求項1において、
既物品を格納する領域の地図上での既物品の位置情報、既物品が格納された棚等の場所での既物品の位置情報、および既物品の色や形状等が識別可能な映像を提示する情報提示手段
を備えることを特徴とする映像認識装置。
In claim 1,
Presents position information of the existing article on the map of the area where the existing article is stored, position information of the existing article at a place such as a shelf where the existing article is stored, and an image that can identify the color and shape of the existing article. A video recognition apparatus, comprising:
請求項1において、
既認識手段および既位置推定手段で検出された既物品の情報を用いて、既物品の管理情報を更新する情報管理手段
を備えることを特徴とする映像認識装置。
In claim 1,
An image recognition apparatus, comprising: an information management unit that updates management information of an existing article using information of the existing article detected by the already recognized unit and the existing position estimation unit.
請求項1において、
撮影された既映像を用いて、既物品を格納する領域における未使用領域の大きさを推定する領域情報推定手段
を備えることを特徴とする映像認識装置。
In claim 1,
A video recognition apparatus comprising: area information estimating means for estimating the size of an unused area in an area for storing an existing article by using an already-taken video.
JP2003138086A 2003-05-16 2003-05-16 Video recognition device Expired - Fee Related JP4135556B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003138086A JP4135556B2 (en) 2003-05-16 2003-05-16 Video recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003138086A JP4135556B2 (en) 2003-05-16 2003-05-16 Video recognition device

Publications (2)

Publication Number Publication Date
JP2004338889A true JP2004338889A (en) 2004-12-02
JP4135556B2 JP4135556B2 (en) 2008-08-20

Family

ID=33527554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003138086A Expired - Fee Related JP4135556B2 (en) 2003-05-16 2003-05-16 Video recognition device

Country Status (1)

Country Link
JP (1) JP4135556B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007303839A (en) * 2006-05-08 2007-11-22 Konica Minolta Sensing Inc Three-dimensional shape measuring system
JP5140889B2 (en) * 2006-08-10 2013-02-13 サンリツオートメイション株式会社 Image display method by fluctuation correction and moving object remote control system using the method
JP2014043287A (en) * 2012-08-24 2014-03-13 Fujifilm Corp Commodity master table preparation apparatus and method and program
JP2014116845A (en) * 2012-12-11 2014-06-26 Visual Japan Inc Apparatus and method for acquiring image of book spine
CN103950032A (en) * 2014-04-14 2014-07-30 上海大学 Warehouse management auxiliary robot
WO2015107623A1 (en) * 2014-01-15 2015-07-23 パイオニア株式会社 Management system and position specification method
WO2016113836A1 (en) * 2015-01-13 2016-07-21 株式会社日立製作所 Manipulator control method, system, and manipulator
WO2017033254A1 (en) * 2015-08-24 2017-03-02 株式会社日立製作所 Mobile robot operation system, mobile robot, and object take-out method
KR101756700B1 (en) * 2015-10-30 2017-07-12 재단법인대구경북과학기술원 Smart library management apparatus and method thereof
WO2017175312A1 (en) * 2016-04-05 2017-10-12 株式会社日立物流 Measurement system and measurement method
KR101878239B1 (en) * 2017-03-22 2018-07-13 경남대학교 산학협력단 Development of library management system based on a mobile robot
CN108482935A (en) * 2018-05-11 2018-09-04 西安航空学院 Three-pawl type library automatic book taking device
JP2019523925A (en) * 2016-05-19 2019-08-29 シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. How to track product placement on store shelves
CN110524538A (en) * 2018-05-25 2019-12-03 精工爱普生株式会社 Image processing apparatus, robot and robot system
CN112861850A (en) * 2021-01-07 2021-05-28 北京三缘聚科技有限公司 Method and system for realizing short-distance character extraction of mobile terminal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01176795A (en) * 1987-12-29 1989-07-13 Kawasaki Steel Corp Crane location sensing and control device
JPH1035827A (en) * 1996-07-16 1998-02-10 Murata Mach Ltd Automatic warehouse system
JP2000313505A (en) * 1999-04-30 2000-11-14 Nippon Filing Co Ltd Book preserving/controlling device
JP2001088912A (en) * 1999-09-20 2001-04-03 Fujitsu General Ltd Stocktaking managing method and stocktaking system by image recognition
JP2002247441A (en) * 2001-02-22 2002-08-30 Oyo Keisoku Kenkyusho:Kk Object recognition method and automatic photographing camera apparatus using it

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01176795A (en) * 1987-12-29 1989-07-13 Kawasaki Steel Corp Crane location sensing and control device
JPH1035827A (en) * 1996-07-16 1998-02-10 Murata Mach Ltd Automatic warehouse system
JP2000313505A (en) * 1999-04-30 2000-11-14 Nippon Filing Co Ltd Book preserving/controlling device
JP2001088912A (en) * 1999-09-20 2001-04-03 Fujitsu General Ltd Stocktaking managing method and stocktaking system by image recognition
JP2002247441A (en) * 2001-02-22 2002-08-30 Oyo Keisoku Kenkyusho:Kk Object recognition method and automatic photographing camera apparatus using it

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007303839A (en) * 2006-05-08 2007-11-22 Konica Minolta Sensing Inc Three-dimensional shape measuring system
JP4677613B2 (en) * 2006-05-08 2011-04-27 コニカミノルタセンシング株式会社 3D shape measurement system
JP5140889B2 (en) * 2006-08-10 2013-02-13 サンリツオートメイション株式会社 Image display method by fluctuation correction and moving object remote control system using the method
JP2014043287A (en) * 2012-08-24 2014-03-13 Fujifilm Corp Commodity master table preparation apparatus and method and program
JP2014116845A (en) * 2012-12-11 2014-06-26 Visual Japan Inc Apparatus and method for acquiring image of book spine
WO2015107623A1 (en) * 2014-01-15 2015-07-23 パイオニア株式会社 Management system and position specification method
CN103950032A (en) * 2014-04-14 2014-07-30 上海大学 Warehouse management auxiliary robot
WO2016113836A1 (en) * 2015-01-13 2016-07-21 株式会社日立製作所 Manipulator control method, system, and manipulator
JPWO2016113836A1 (en) * 2015-01-13 2017-06-22 株式会社日立製作所 Manipulator control method, system, and manipulator
WO2017033254A1 (en) * 2015-08-24 2017-03-02 株式会社日立製作所 Mobile robot operation system, mobile robot, and object take-out method
KR101756700B1 (en) * 2015-10-30 2017-07-12 재단법인대구경북과학기술원 Smart library management apparatus and method thereof
WO2017175312A1 (en) * 2016-04-05 2017-10-12 株式会社日立物流 Measurement system and measurement method
JPWO2017175312A1 (en) * 2016-04-05 2018-11-22 株式会社日立物流 Measuring system and measuring method
JP2019523925A (en) * 2016-05-19 2019-08-29 シムビ ロボティクス, インコーポレイテッドSimbe Robotics, Inc. How to track product placement on store shelves
US11341454B2 (en) 2016-05-19 2022-05-24 Simbe Robotics, Inc. Method for tracking placement of products on shelves in a store
KR101878239B1 (en) * 2017-03-22 2018-07-13 경남대학교 산학협력단 Development of library management system based on a mobile robot
CN108482935A (en) * 2018-05-11 2018-09-04 西安航空学院 Three-pawl type library automatic book taking device
CN110524538A (en) * 2018-05-25 2019-12-03 精工爱普生株式会社 Image processing apparatus, robot and robot system
CN112861850A (en) * 2021-01-07 2021-05-28 北京三缘聚科技有限公司 Method and system for realizing short-distance character extraction of mobile terminal
CN112861850B (en) * 2021-01-07 2024-02-23 北京三缘聚科技有限公司 Method and system for realizing short-distance text extraction of mobile terminal

Also Published As

Publication number Publication date
JP4135556B2 (en) 2008-08-20

Similar Documents

Publication Publication Date Title
JP3834297B2 (en) Image processing device
US20180190014A1 (en) Collaborative multi sensor system for site exploitation
JP4488804B2 (en) Stereo image association method and three-dimensional data creation apparatus
KR101775591B1 (en) Interactive and automatic 3-d object scanning method for the purpose of database creation
JP2004338889A (en) Image recognition device
EP1981278B1 (en) Automatic tracking device and automatic tracking method
EP1394743A3 (en) Device for detecting position/orientation of object from stereo images
CN110084842B (en) Servo secondary alignment method and device for robot holder
CN105898107B (en) A kind of target object grasp shoot method and system
JPWO2018143263A1 (en) Imaging control apparatus, imaging control method, and program
JP2011022157A (en) Position detection apparatus, position detection method and position detection program
CN110374312B (en) Carrying system, control method thereof and floor tile paving system
JP6624800B2 (en) Image processing apparatus, image processing method, and image processing system
JP6396682B2 (en) Surveillance camera system
JP4085671B2 (en) Data processing method, data processing program, and recording medium
CN109543496A (en) A kind of image-pickup method, device, electronic equipment and system
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
CN111975776A (en) Robot movement tracking system and method based on deep learning and Kalman filtering
JPH11339139A (en) Monitoring device
JP7004131B2 (en) Management system, management method and management program
US20020171757A1 (en) Adjustable image capturing system
JP4027294B2 (en) Moving object detection apparatus, moving object detection method, and moving object detection program
JP2020051856A (en) Camera calibration method and device
US11455775B2 (en) 3D imaging
JP2001224014A (en) Object detection method and device, and recording medium recorded with the method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051219

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080513

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080526

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees