JP6770847B2 - Channel identification systems, devices, methods and programs - Google Patents

Channel identification systems, devices, methods and programs Download PDF

Info

Publication number
JP6770847B2
JP6770847B2 JP2016146032A JP2016146032A JP6770847B2 JP 6770847 B2 JP6770847 B2 JP 6770847B2 JP 2016146032 A JP2016146032 A JP 2016146032A JP 2016146032 A JP2016146032 A JP 2016146032A JP 6770847 B2 JP6770847 B2 JP 6770847B2
Authority
JP
Japan
Prior art keywords
unit
image information
region
image
television receiver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016146032A
Other languages
Japanese (ja)
Other versions
JP2018019156A (en
Inventor
祐太 星
祐太 星
金子 豊
金子  豊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2016146032A priority Critical patent/JP6770847B2/en
Publication of JP2018019156A publication Critical patent/JP2018019156A/en
Application granted granted Critical
Publication of JP6770847B2 publication Critical patent/JP6770847B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

本発明は、受像機で提示中の放送チャンネルを識別するチャンネル識別装置、チャンネル識別方法及びチャンネル識別プログラムに関する。 The present invention relates to a channel identification device for identifying a broadcast channel being presented by a receiver, a channel identification method, and a channel identification program.

近年、ユーザと生活を共にするパートナーの役割を果たす家庭用ロボットが開発されてきている。このようなロボットは、テレビ受像機を認識して位置を把握することで、テレビ受像機とロボットとの位置関係を利用した制御をすることができる。さらに、テレビ受像機とロボットとの位置関係を把握した上で、テレビ受像機で選局中の放送チャンネルを識別することにより、ロボットは、選局中の放送チャンネルに関連した動作及び情報などをユーザに提供できる。 In recent years, domestic robots that play the role of partners who live with users have been developed. By recognizing the TV receiver and grasping the position of such a robot, it is possible to perform control using the positional relationship between the TV receiver and the robot. Furthermore, by grasping the positional relationship between the TV receiver and the robot and then identifying the broadcast channel being selected by the TV receiver, the robot can perform operations and information related to the broadcast channel being selected. Can be provided to users.

このような状況において、例えば、特許文献1では、自走可能ロボットがテレビ受像機の画面位置を取得するために、画面内の所定の位置に、所定の模様、色又は二次元バーコードなどの標識画像を埋め込む方法が提案されている。
また、特許文献2では、自走可能ロボットが放送チャンネルを特定するために4つの手法が提案されている。第1の手法は、音声又は文字などでユーザに問い合わせる方法である。第2の手法は、インターネット又は赤外線などの通信回線を介してテレビ受像機と通信することでテレビ受像機の動作状態情報を取得する方法である。第3の手法は、放送受信機能をロボットに搭載し、ロボットで受信中の放送チャンネルを順次切り替えて画像データを比較する方法である。第4の手法は、放送チャンネルを順次切り替えて出力させた音声信号を取得し、テレビ受像機から伝播してくる音声信号と比較することでテレビ受像機が受信している放送チャンネルを特定する方法である。
In such a situation, for example, in Patent Document 1, in order for a self-propelled robot to acquire a screen position of a television receiver, a predetermined pattern, color, two-dimensional bar code, or the like is placed at a predetermined position on the screen. A method of embedding a marker image has been proposed.
Further, Patent Document 2 proposes four methods for a self-propelled robot to specify a broadcasting channel. The first method is a method of inquiring the user by voice or characters. The second method is a method of acquiring operating state information of the television receiver by communicating with the television receiver via a communication line such as the Internet or infrared rays. The third method is a method in which a broadcast reception function is mounted on a robot, and the broadcast channels being received by the robot are sequentially switched to compare image data. The fourth method is to identify the broadcast channel received by the TV receiver by acquiring the output audio signal by sequentially switching the broadcast channels and comparing it with the audio signal propagating from the TV receiver. Is.

特開2009−11362号公報Japanese Unexamined Patent Publication No. 2009-11362 特開2005−4697号公報Japanese Unexamined Patent Publication No. 2005-4697

しかしながら、ユーザが放送番組を視聴している状況でロボットがテレビ受像機の位置を認識しようとした場合、特許文献1の技術では、テレビ受像機の表示画面内に標識画像が埋め込まれるため、番組視聴の妨げになる。 However, when the robot tries to recognize the position of the television receiver while the user is watching a broadcast program, the technique of Patent Document 1 embeds a marker image in the display screen of the television receiver, so that the program It interferes with viewing.

また、特許文献2の技術によりロボットが放送チャンネルを識別する場合、選局中の放送チャンネルをユーザに問い合わせる第1手法では、ロボットが自動で放送チャンネルを識別することができない。ロボットがテレビ受像機との通信を介して放送チャンネルを識別する第2の手法では、テレビ受像機がロボットとのデータ通信機能を有する必要がある。第3及び第4の手法では、ロボット内に放送受信手段を搭載する必要があり、さらに、放送波を受信できる状況が必要となるため、ロボット本体の位置に制限が生じる。 Further, when the robot identifies a broadcast channel by the technique of Patent Document 2, the robot cannot automatically identify the broadcast channel by the first method of inquiring the user about the broadcast channel being selected. In the second method in which the robot identifies the broadcast channel via communication with the television receiver, the television receiver needs to have a data communication function with the robot. In the third and fourth methods, it is necessary to mount the broadcast receiving means in the robot, and further, a situation in which the broadcast wave can be received is required, so that the position of the robot body is limited.

本発明は、テレビ受像機の位置を認識し放送チャンネルを識別する際の制約が少ないチャンネル識別システム、チャンネル識別装置、チャンネル識別方法及びチャンネル識別プログラムを提供することを目的とする。 An object of the present invention is to provide a channel identification system, a channel identification device, a channel identification method, and a channel identification program, which have few restrictions on recognizing the position of a television receiver and identifying a broadcast channel.

本発明に係るチャンネル識別システムは、互いに通信接続された端末及びサーバを有し、前記端末は、撮像部と、前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出する検出部と、前記検出部により検出された領域内の画像情報を抽出する抽出部と、前記画像情報を前記サーバに送信する通信部と、を備え、前記サーバは、チャンネル毎の放送映像の画像情報を放送時刻と対応付けて記憶する記憶部と、前記端末から受信した画像情報を、当該画像情報の撮像時刻に対応する前記記憶部に記憶された画像情報と比較し、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定する判定部と、を備える。 The channel identification system according to the present invention has a terminal and a server that are communicated with each other, and the terminal collects a predetermined or greater difference based on the difference between the image pickup unit and the image captured by the image pickup unit. A detection unit that detects the square area of the TV receiver as an area of the TV receiver, an extraction unit that extracts image information in the area detected by the detection unit, and a communication unit that transmits the image information to the server. The server has a storage unit that stores image information of broadcast video for each channel in association with the broadcast time, and stores that store image information received from the terminal in accordance with the imaging time of the image information. It is provided with a determination unit for determining a channel selected by the television receiver based on the degree of matching by comparing with the image information stored in the unit.

前記抽出部は、前記画像情報として、前記領域内の特徴点、及び当該特徴点毎の特徴量を抽出し、前記記憶部は、前記放送映像の特徴点、及び当該特徴点毎の特徴量を記憶してもよい。 The extraction unit extracts the feature points in the region and the feature amount for each feature point as the image information, and the storage unit extracts the feature points of the broadcast image and the feature amount for each feature point. You may remember.

前記抽出部は、前記領域内の画像をテレビ画面に相当する所定の形状に変換した後、前記領域内の画像情報を抽出してもよい。 The extraction unit may extract the image information in the region after converting the image in the region into a predetermined shape corresponding to the television screen.

前記端末は、前記領域が前記撮像部により撮像された画像の外縁を含む場合、前記撮像部の撮像方向を当該外縁の方向へ移動させるための第1制御部を備えてもよい。 When the region includes the outer edge of the image captured by the imaging unit, the terminal may include a first control unit for moving the imaging direction of the imaging unit toward the outer edge.

前記端末は、前記領域が所定の大きさに満たない場合、当該領域が所定の大きさ以上となるように前記撮像部のズーム設定を調整する第2制御部を備えてもよい。 When the area is less than a predetermined size, the terminal may include a second control unit that adjusts the zoom setting of the imaging unit so that the area is larger than the predetermined size.

前記判定部は、前記撮像時刻の前後所定範囲の画像情報を前記記憶部から抽出してもよい。 The determination unit may extract image information in a predetermined range before and after the imaging time from the storage unit.

本発明に係るチャンネル識別装置は、撮像部と、前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出する検出部と、前記検出部により検出された領域内の画像情報を抽出する抽出部と、前記画像情報をサーバに送信し、当該サーバに記憶されているチャンネル毎の放送映像の画像情報と比較することにより、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定させる通信部と、を備える。 The channel identification device according to the present invention detects a square region in which differences of a predetermined value or more are gathered as a region of a television receiver based on the difference between the imaging unit and the image captured by the imaging unit. The detection unit, the extraction unit that extracts the image information in the area detected by the detection unit, and the image information are transmitted to the server and compared with the image information of the broadcast video for each channel stored in the server. As a result, a communication unit for determining the channel selected by the television receiver based on the degree of matching is provided.

本発明に係るチャンネル識別プログラムは、撮像部を備えたコンピュータに、前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出させ、検出された領域内の画像情報を抽出させ、前記画像情報をサーバに送信し、当該サーバに記憶されているチャンネル毎の放送映像の画像情報と比較することにより、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定させる。 In the channel identification program according to the present invention, in a computer provided with an imaging unit, a square region in which differences of a predetermined value or more are gathered based on the differences between images captured by the imaging unit is formed on a television receiver. By detecting it as an area, extracting the image information in the detected area, transmitting the image information to the server, and comparing it with the image information of the broadcast video for each channel stored in the server, the degree of matching can be determined. Based on this, the channel selected by the television receiver is determined.

本発明によれば、テレビ受像機の位置を認識し放送チャンネルを識別する際の制約が少なくなる。 According to the present invention, there are less restrictions on recognizing the position of the television receiver and identifying the broadcast channel.

実施形態に係るチャンネル識別システムの機能構成を示す図である。It is a figure which shows the functional structure of the channel identification system which concerns on embodiment. 実施形態に係る画面領域の検出処理を示すフローチャートである。It is a flowchart which shows the detection process of the screen area which concerns on embodiment. 実施形態に係る撮像部の動作例を示す図である。It is a figure which shows the operation example of the image pickup unit which concerns on embodiment. 実施形態に係る特徴量抽出の動作を示す図である。It is a figure which shows the operation of the feature amount extraction which concerns on embodiment. 実施形態に係る特徴量のデータ構造例を示す図である。It is a figure which shows the data structure example of the feature amount which concerns on embodiment. 実施形態に係るチャンネル特定処理を示すフローチャートである。It is a flowchart which shows the channel identification process which concerns on embodiment. 実施形態に係る対応点判定処理を示す概念図である。It is a conceptual diagram which shows the correspondence point determination process which concerns on embodiment.

以下、本発明の実施形態の一例について説明する。
本実施形態に係るチャンネル識別システム1は、ロボットなどのデバイス(端末)に搭載しているカメラで撮像した画像からテレビ受像機の位置を認識し、認識したテレビ画像の画像特徴量と、放送画像の画像特徴量とを比較することで、テレビ受像機で選局中のチャンネルを識別する。
なお、テレビ受像機は、据え置き型の専用機に限られない。テレビ画面は、例えばPCのディスプレイに表示されるアプリケーションウインドウなども含み、放送映像が表示される領域を示す。
Hereinafter, an example of the embodiment of the present invention will be described.
The channel identification system 1 according to the present embodiment recognizes the position of the television receiver from the image captured by the camera mounted on the device (terminal) such as a robot, and the image feature amount of the recognized television image and the broadcast image. By comparing with the image feature amount of, the channel being selected by the TV receiver is identified.
The TV receiver is not limited to a stationary dedicated machine. The television screen also includes, for example, an application window displayed on a PC display, and indicates an area on which a broadcast image is displayed.

図1は、本実施形態に係るチャンネル識別システム1の機能構成を示す図である。
チャンネル識別システム1は、チャンネル識別装置としての複数のロボット10(端末)と、判定サーバ20とを備える。複数のロボット10(10−1、2、・・・、N)と判定サーバ20とは、それぞれインターネットなどを介して通信接続されている。
なお、チャンネル識別装置は、家庭用のロボット10には限られず、カメラを備えた他の情報処理装置、例えばスマートフォン又はタブレット端末などであってもよい。
FIG. 1 is a diagram showing a functional configuration of the channel identification system 1 according to the present embodiment.
The channel identification system 1 includes a plurality of robots 10 (terminals) as channel identification devices and a determination server 20. The plurality of robots 10 (10-1, 2, ..., N) and the determination server 20 are each communicated and connected via the Internet or the like.
The channel identification device is not limited to the domestic robot 10, and may be another information processing device equipped with a camera, for example, a smartphone or a tablet terminal.

ロボット10は、撮像部11と、検出部12と、制御部13(第1制御部、第2制御部)と、抽出部14と、通信部15とを備える。
判定サーバ20は、抽出部21と、記憶部22と、判定部23とを備える。
The robot 10 includes an imaging unit 11, a detection unit 12, a control unit 13 (first control unit, second control unit), an extraction unit 14, and a communication unit 15.
The determination server 20 includes an extraction unit 21, a storage unit 22, and a determination unit 23.

撮像部11は、動画又は静止画を撮像するカメラであり、撮像、ズーム、輝度の変更などが制御部13からの制御データにより制御される。また、撮像部11は、制御部13からの制御データによりカメラ方向(撮像方向)を変更する。 The imaging unit 11 is a camera that captures a moving image or a still image, and imaging, zooming, changing the brightness, and the like are controlled by control data from the control unit 13. Further, the imaging unit 11 changes the camera direction (imaging direction) according to the control data from the control unit 13.

検出部12は、撮像部11により撮像された画像(フレーム)間の差分に基づいて、所定以上の差分がある画素が集合している四角形の領域を、テレビ受像機の領域として検出する。 Based on the difference between the images (frames) captured by the imaging unit 11, the detection unit 12 detects a quadrangular region in which pixels having a difference of a predetermined value or more are gathered as a region of the television receiver.

制御部13は、検出部12による検出結果に応じて、撮像部11の撮像方向又はズームを制御する。
具体的には、検出された領域が撮像部11により撮像された画像の外縁を含む場合、すなわち、テレビ受像機の一部のみが撮像されている場合、制御部13(第1制御部)は、撮像部11の撮像方向をこの外縁の方向へ移動させる。
また、検出された領域が所定の大きさに満たない場合、制御部13(第2制御部)は、この領域が所定の大きさ以上となるように撮像部のズーム設定を調整する。
The control unit 13 controls the imaging direction or zoom of the imaging unit 11 according to the detection result by the detection unit 12.
Specifically, when the detected region includes the outer edge of the image captured by the imaging unit 11, that is, when only a part of the television receiver is imaged, the control unit 13 (first control unit) , The imaging direction of the imaging unit 11 is moved toward the outer edge.
When the detected region is less than a predetermined size, the control unit 13 (second control unit) adjusts the zoom setting of the imaging unit so that this region is larger than the predetermined size.

図2は、本実施形態に係るテレビ受像機の画面領域の検出処理を示すフローチャートである。
なお、この検出処理では、一例としてケニーのエッジ検出アルゴリズム(例えば、「ディジタル画像処理[改訂新版]、pp232〜233、画像情報教育振興協会、2015」参照)を用いている。
FIG. 2 is a flowchart showing a detection process of a screen area of the television receiver according to the present embodiment.
In this detection process, Kenny's edge detection algorithm (see, for example, "Digital Image Processing [Revised New Edition], pp232-233, Image Information Education Promotion Association, 2015") is used as an example.

ステップS1において、検出部12は、撮像部11で撮像された画像データを取得する。取得する画像データは、同位置で撮像した、例えば動画における連続したフレーム、又は撮像時刻が連続した複数の静止画像であってよい。 In step S1, the detection unit 12 acquires the image data captured by the imaging unit 11. The image data to be acquired may be, for example, a continuous frame in a moving image, or a plurality of still images with continuous imaging times captured at the same position.

ステップS2において、検出部12は、ステップS1で取得した複数の画像データを用いて、各画素における差分を算出する。画素(x,y)における画素値は、例えば輝度G(x,y)である。これにより、検出部12は、時間的に連続する画像間で動きのある領域を、各画素の差分値が集合している領域として切り出す。 In step S2, the detection unit 12 calculates the difference in each pixel by using the plurality of image data acquired in step S1. The pixel value in the pixel (x, y) is, for example, the luminance G (x, y). As a result, the detection unit 12 cuts out a region in which there is movement between images that are continuous in time as a region in which the difference values of each pixel are gathered.

ステップS3において、検出部12は、画像内のエッジ成分を検出すために、まずステップS2で得られた差分値からなる差分画像に対して、ノイズの影響を減らすために平滑化処理を施す。例えば、検出部12は、ガウシアンフィルタを用いて差分画像を平滑化する。
検出部12は、平滑化した差分画像を、さらに所定の閾値により2値化してもよい。
In step S3, in order to detect the edge component in the image, the detection unit 12 first performs a smoothing process on the difference image consisting of the difference values obtained in step S2 in order to reduce the influence of noise. For example, the detection unit 12 smoothes the difference image using a Gaussian filter.
The detection unit 12 may further binarize the smoothed difference image according to a predetermined threshold value.

ステップS4において、検出部12は、x方向及びy方向の勾配ベクトルを、各方向に対する輝度値の微分により算出し、勾配強度及び勾配方向を算出する。
なお、x方向の勾配ベクトルをfx(x,y)、y方向の勾配ベクトルをfy(x,y)とすると、勾配強度g(x,y)及び勾配方向d(x,y)は、次の式(1)及び(2)で表される。
g(x,y)=(fx(x,y)+fy(x,y)1/2 ・・・(1)
d(x,y)=tan−1(fy(x,y)/fx(x,y)) ・・・(2)
In step S4, the detection unit 12 calculates the gradient vectors in the x-direction and the y-direction by differentiating the luminance values in each direction, and calculates the gradient intensity and the gradient direction.
Assuming that the gradient vector in the x direction is fx (x, y) and the gradient vector in the y direction is fy (x, y), the gradient intensity g (x, y) and the gradient direction d (x, y) are as follows. It is represented by the equations (1) and (2) of.
g (x, y) = (fx (x, y) 2 + fy (x, y) 2 ) 1/2 ... (1)
d (x, y) = tan -1 (fy (x, y) / fx (x, y)) ... (2)

ステップS5において、検出部12は、ステップS4の勾配強度を用いて、差分画像内のエッジ成分を検出する。エッジ点は、注目画素の近傍8点に比べて注目画素の勾配強度が局所的に最大になる点として定義される。
このとき、検出部12は、一定の閾値Thを用いて、勾配強度が閾値Th以上であればエッジ点とし、式(3)によりエッジ点のみを白色(G(x,y)=1)とした画像を生成する。
g(x,y)≧Th:G(x,y)=1
g(x,y)<Th:G(x,y)=0 ・・・(3)
In step S5, the detection unit 12 detects the edge component in the difference image by using the gradient intensity of step S4. The edge point is defined as a point where the gradient intensity of the pixel of interest is locally maximized as compared with eight points in the vicinity of the pixel of interest.
At this time, the detection unit 12 uses a constant threshold value Th, sets it as an edge point if the gradient intensity is equal to or higher than the threshold value Th, and sets only the edge point as white (G (x, y) = 1) according to the equation (3). Generate the image.
g (x, y) ≧ Th: G (x, y) = 1
g (x, y) <Th: G (x, y) = 0 ... (3)

なお、検出部12は、勾配強度に対して、上側の閾値及び下側の閾値を設け、両閾値の間の勾配強度の点をエッジ点として検出してもよい。
また、輝度の勾配を検出する手法は、これに限定されず、例えば、Sobelオペレータ又はPrewittオペレータなどが用いられてもよい。
The detection unit 12 may provide an upper threshold value and a lower threshold value with respect to the gradient intensity, and detect a point of the gradient intensity between the two threshold values as an edge point.
Further, the method for detecting the gradient of brightness is not limited to this, and for example, a Sobel operator or a Prewitt operator may be used.

ステップS6において、検出部12は、ステップS5で検出された、画像内の直線の候補であるエッジ成分から、テレビ受像機と判断できる四角形の領域を検出する。
具体的には、検出部12は、まず、テレビ受像機の候補となる四角形領域を構成する線分を抽出する。線分を抽出するには、ハフ変換(例えば、「ディジタル画像処理[改訂新版]、pp238〜243、画像情報教育振興協会、2015」参照)などが利用可能である。
次に、検出部12は、任意に選定した線分から別の線分が交差する交点を辿っていき、最初に選定した線分に辿りつき、かつ、交点が合計で4箇所ある場合に、辿った線分の組み合わせを四角形と判定し、この四角形の領域をテレビ受像機と判断する。一方、交点が4箇所未満(例えば、2箇所)の場合は、テレビ受像機の一部が検出されていると判断する。
In step S6, the detection unit 12 detects a quadrangular region that can be determined to be a television receiver from the edge component that is a candidate for a straight line in the image detected in step S5.
Specifically, the detection unit 12 first extracts a line segment constituting a quadrangular region that is a candidate for a television receiver. To extract the line segment, a Hough transform (see, for example, "Digital Image Processing [Revised New Edition], pp238-243, Image Information Education Promotion Association, 2015") and the like can be used.
Next, the detection unit 12 traces the intersection where another line segment intersects from the arbitrarily selected line segment, reaches the first selected line segment, and traces when there are a total of four intersections. The combination of the line segments is determined to be a quadrangle, and the area of this quadrangle is determined to be a television receiver. On the other hand, when the number of intersections is less than 4 (for example, 2), it is determined that a part of the television receiver is detected.

ステップS7において、制御部13は、ステップS6において四角形の領域を検出できたか否かを判定する。この判定がYESの場合、処理は終了し、判定がNOの場合、処理はステップS8に移る。 In step S7, the control unit 13 determines whether or not the quadrangular region could be detected in step S6. If this determination is YES, the process ends, and if the determination is NO, the process proceeds to step S8.

ステップS8において、制御部13は、撮像部11の撮像方向を変更し、ステップS1からS7を繰り返す。 In step S8, the control unit 13 changes the imaging direction of the imaging unit 11 and repeats steps S1 to S7.

図3は、本実施形態に係る制御部13の制御による撮像部11の動作例を示す図である。
検出部12は、撮像した画像内における線分の交点31の数を用いて、画像内にテレビ受像機Aが存在しているか否かを判断する。図3(a)のように、テレビ受像機Aの全体が検出されていれば、制御部13は、撮像部11に対する制御データの送信を実行しない。
FIG. 3 is a diagram showing an operation example of the imaging unit 11 under the control of the control unit 13 according to the present embodiment.
The detection unit 12 determines whether or not the television receiver A exists in the image by using the number of intersections 31 of the line segments in the captured image. As shown in FIG. 3A, if the entire television receiver A is detected, the control unit 13 does not transmit control data to the image pickup unit 11.

一方、図3(b)のように、撮像した画像内にテレビ受像機Aの一部のみが存在していれば、制御部13は、テレビ受像機Aが撮像範囲に入るように撮像部11の角度を制御する。
例えば、制御部13は、撮像部11の向いている角度を15度右に変更するなどの制御データを送信する。また、撮像した画像内にテレビ受像機Aが検出されなければ、例えば、制御部13は、撮像部11の向いている角度を30度右に変更するなどの制御データを、撮像部11へ送信する。
On the other hand, as shown in FIG. 3B, if only a part of the television receiver A is present in the captured image, the control unit 13 determines the imaging unit 11 so that the television receiver A falls within the imaging range. Control the angle of.
For example, the control unit 13 transmits control data such as changing the angle at which the image pickup unit 11 is facing to the right by 15 degrees. If the television receiver A is not detected in the captured image, for example, the control unit 13 transmits control data such as changing the angle of the image pickup unit 11 to the right by 30 degrees to the image pickup unit 11. To do.

図1に戻り、抽出部14は、検出部12によりテレビ受像機と認識された画像領域から、画像情報として特徴点、及びこれら特徴点毎の特徴量を抽出する。
このとき、抽出部14は、領域内の画像をテレビ受像機の画面に相当する所定の形状、すなわち長方形に変換した後、特徴量を抽出する。
Returning to FIG. 1, the extraction unit 14 extracts feature points as image information and feature quantities for each of these feature points from the image region recognized as a television receiver by the detection unit 12.
At this time, the extraction unit 14 converts the image in the region into a predetermined shape corresponding to the screen of the television receiver, that is, a rectangle, and then extracts the feature amount.

特徴量の種類は限定されないが、以下では、一例としてSIFT(Scale−InvariantFeatureTransform)(例えば、「ディジタル画像処理[改訂新版]、pp234〜237、画像情報教育振興協会、2015」参照)を用いた手法について説明する。 The type of feature amount is not limited, but in the following, as an example, a method using SIFT (Scale-Invariant Feature Transfer) (see, for example, "Digital Image Processing [Revised New Edition], pp234-237, Image Information Education Promotion Association, 2015"). Will be described.

図4は、本実施形態に係る抽出部14における特徴量抽出の動作を示す図である。
抽出部14は、検出部12で用いた勾配強度及び勾配方向を利用して、特徴点40における方向(オリエンテーション41)と、特徴点周辺における128次元の特徴量とを算出する。
FIG. 4 is a diagram showing an operation of feature amount extraction in the extraction unit 14 according to the present embodiment.
The extraction unit 14 calculates the direction at the feature point 40 (orientation 41) and the 128-dimensional feature amount around the feature point by using the gradient intensity and the gradient direction used in the detection unit 12.

まず、抽出部14は、勾配方向を36方向(10度単位)に量子化し、特徴点周辺における局所領域42内の勾配強度を、特徴点の中心から近いほど高く重み付けして投票し、重み付き勾配方向ヒストグラム43を作成する。勾配方向ヒストグラム43の最大値から80%以上となるピークの方向44を、局所領域内のオリエンテーション41とする。 First, the extraction unit 14 quantizes the gradient direction in 36 directions (in units of 10 degrees), weights the gradient intensity in the local region 42 around the feature point higher as it is closer to the center of the feature point, and votes for weighting. The gradient direction histogram 43 is created. The peak direction 44, which is 80% or more of the maximum value of the gradient direction histogram 43, is defined as the orientation 41 in the local region.

次に、抽出部14は、オリエンテーション41に合致するように、特徴点周辺の画素値を取得するための局所領域42を回転する(45)。続いて、抽出部14は、矩形領域の1辺を4ブロック(46)、そして勾配方向を8方向(47)に分割して勾配方向ヒストグラムを作成し、4*4*8=128次元の特徴量を算出する。 Next, the extraction unit 14 rotates the local region 42 for acquiring the pixel values around the feature points so as to match the orientation 41 (45). Subsequently, the extraction unit 14 divides one side of the rectangular region into 4 blocks (46) and the gradient direction into 8 directions (47) to create a gradient direction histogram, and features 4 * 4 * 8 = 128 dimensions. Calculate the amount.

なお、特徴量の抽出手法はこれに限定されるものでなく、例えば、SURF(Scale−InvariantFeatureTransform)を用いてもよい。 The feature amount extraction method is not limited to this, and for example, SURF (Scale-InvariantFairtureTransform) may be used.

通信部15は、抽出部14から取得した画像情報に時刻情報を付加し、インターネットなどの通信回線を利用して判定サーバ20の判定部23へ送信する。
ここで、時刻情報は、撮像した時刻で、例えば西暦年、月、日、時、分、秒から構成され、YYYYMMDDhhmmssという文字列からなる。例えば、2016年3月15日23時59分59秒を表す場合、時刻情報は「20160315235959」となる。
The communication unit 15 adds time information to the image information acquired from the extraction unit 14 and transmits the time information to the determination unit 23 of the determination server 20 using a communication line such as the Internet.
Here, the time information is the time at which the image was taken, and is composed of, for example, the year, month, day, hour, minute, and second, and is composed of the character string YYYYMMDDhmmss. For example, when representing 23:59:59 on March 15, 2016, the time information is "20160315235959".

また、通信部15は、撮像部11により連続して撮像された複数の画像(フレーム)それぞれの画像情報を送信してもよい。これにより、判定サーバ20において記憶されている放送映像とのフレームのずれを抑制でき、マッチングできる可能性が向上する。 Further, the communication unit 15 may transmit image information of each of a plurality of images (frames) continuously captured by the image pickup unit 11. As a result, it is possible to suppress the deviation of the frame from the broadcast image stored in the determination server 20, and the possibility of matching is improved.

判定サーバ20の抽出部21は、放送中の検出対象となるチャンネルをそれぞれ選局し、定期的に放送画像から、画像情報として、特徴点及びこれら特徴点毎の特徴量を抽出する。
記憶部22は、抽出部21から取得した各放送画像の特徴量を放送時刻情報と対応付けて記憶する。
The extraction unit 21 of the determination server 20 selects each channel to be detected during broadcasting, and periodically extracts feature points and feature quantities for each of these feature points as image information from the broadcast image.
The storage unit 22 stores the feature amount of each broadcast image acquired from the extraction unit 21 in association with the broadcast time information.

判定部23は、ロボット10から受信した特徴量Vと、付加されている時刻情報に対応して記憶部22に記憶されている特徴量V’とを比較して選局中のチャンネルを特定し、特定したチャンネル番号をロボット10へ返信する。 The determination unit 23 compares the feature amount V received from the robot 10 with the feature amount V'stored in the storage unit 22 in response to the added time information to identify the channel being selected. , The specified channel number is returned to the robot 10.

このとき、判定部23は、撮像時刻の前後所定範囲の画像情報(特徴量V’)を記憶部から抽出し、それぞれを受信した特徴量Vと比較してよい。
また、判定部23は、ロボット10から画像情報(特徴量V)を受信した時刻から、ロボット10での処理時間及び通信時間などを含む所定時間を減じて、撮像時刻を算出してもよい。この場合、ロボット10から送信される特徴量V’に時刻情報は付加されなくてよい。
At this time, the determination unit 23 may extract image information (feature amount V') in a predetermined range before and after the imaging time from the storage unit and compare each with the received feature amount V.
Further, the determination unit 23 may calculate the imaging time by subtracting a predetermined time including the processing time and the communication time of the robot 10 from the time when the image information (feature amount V) is received from the robot 10. In this case, the time information does not have to be added to the feature amount V'transmitted from the robot 10.

図5は、本実施形態に係る特徴量のデータ構造例を示す図である。
ここでは、ロボット10の抽出部14において抽出された特徴量V(図5(a))、及び判定サーバ20の抽出部21により抽出された特徴量V’(図5(b))のデータ構造例を示す。
特徴量Vに関するデータは、特徴量を抽出した(x,y)座標位置、オリエンテーションの角度、及び128次元の特徴量で構成され、抽出した特徴量の総数はi個である。特徴量V’に関しても同様の構成となるが、抽出した特徴量の総数はj個である。
FIG. 5 is a diagram showing an example of a data structure of a feature amount according to the present embodiment.
Here, the data structure of the feature amount V (FIG. 5 (a)) extracted by the extraction unit 14 of the robot 10 and the feature amount V'(FIG. 5 (b)) extracted by the extraction unit 21 of the determination server 20. An example is shown.
The data regarding the feature amount V is composed of the (x, y) coordinate position where the feature amount is extracted, the orientation angle, and the 128-dimensional feature amount, and the total number of the extracted feature amounts is i. The feature amount V'has the same configuration, but the total number of extracted feature amounts is j.

図6は、本実施形態に係る判定部23によるチャンネル特定処理を示すフローチャートである。
ステップS11において、判定部23は、ロボット10の通信部15から、抽出部14において抽出された特徴量Vを取得する。
FIG. 6 is a flowchart showing a channel identification process by the determination unit 23 according to the present embodiment.
In step S11, the determination unit 23 acquires the feature amount V extracted by the extraction unit 14 from the communication unit 15 of the robot 10.

ステップS12において、判定部23は、特徴量Vと比較するチャンネル番号を選択する。
ステップS13において、判定部23は、特徴量Vと、ステップS12で選択したチャンネルの放送画像から抽出された特徴量V’との距離をそれぞれの特徴点毎に算出する。このとき、特徴量Vと特徴量V’とは、付加された時刻情報に基づいて同時刻の情報で比較される。
In step S12, the determination unit 23 selects a channel number to be compared with the feature amount V.
In step S13, the determination unit 23 calculates the distance between the feature amount V and the feature amount V'extracted from the broadcast image of the channel selected in step S12 for each feature point. At this time, the feature amount V and the feature amount V'are compared with the information at the same time based on the added time information.

特徴量Vと特徴量V’との距離は、例えば、ユークリッド距離が用いられる。特徴量Vと特徴量V’とのユークリッド距離dist(V,V’)は、式(4)で表される。
dist(V,V’)=√{Σ(v−v’)
V=(v1,v2,・・・,v128)
V’=(v1’,v2’,・・・,v128’) ・・・(4)
For the distance between the feature amount V and the feature amount V', for example, the Euclidean distance is used. The Euclidean distance dust (V, V') between the feature amount V and the feature amount V'is expressed by the equation (4).
dist (V, V') = √ {Σ (v k − v k ') 2 }
V = (v1, v2, ..., v128)
V'= (v1', v2', ..., v128') ... (4)

ステップS14において、判定部23は、特徴量V(V1,・・・,Vi)のそれぞれに対して、ステップS13で算出されたユークリッド距離distの値が小さい順にソートし、最も距離が小さい点をd1、次に小さい点をd2とする。
次に、判定部23は、式(5)を満たす点を画像間の対応点と判定する。
d1<d2×K ・・・(5)
ここで、係数Kは、例えばK=0.6を用いるが、撮像部11の特性を考慮して調整されてよい。
In step S14, the determination unit 23 sorts each of the feature quantities V (V1, ..., Vi) in ascending order of the value of the Euclidean distance dust calculated in step S13, and determines the point with the smallest distance. Let d1 and the next smallest point be d2.
Next, the determination unit 23 determines that the points satisfying the equation (5) are the corresponding points between the images.
d1 <d2 × K ・ ・ ・ (5)
Here, the coefficient K uses, for example, K = 0.6, but may be adjusted in consideration of the characteristics of the imaging unit 11.

図7は、本実施形態に係る判定部23における対応点判定処理を示す概念図である。
ロボット10から取得した撮像画像51において、例えば、抽出部14で抽出される特徴量座標を(x1,y1)とする。
次に、判定サーバ20の抽出部21で扱う放送画像52において、抽出される特徴量座標を(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、・・・、(xj’,yj’)とする。
FIG. 7 is a conceptual diagram showing a corresponding point determination process in the determination unit 23 according to the present embodiment.
In the captured image 51 acquired from the robot 10, for example, the feature amount coordinates extracted by the extraction unit 14 are (x1, y1).
Next, in the broadcast image 52 handled by the extraction unit 21 of the determination server 20, the feature quantity coordinates to be extracted are (x1', y1'), (x2', y2'), (x3', y3'), ...・, (XJ', yj').

図7では、(x1,y1)と(x1’,y1’)、(x1,y1)と(x2’,y2’)、(x1,y1)と(x3’,y3’)、(x1,y1)と(xj’,yj’)のユークリッド距離を算出している。この結果、(x1,y1)に対する放送画像52の特徴点それぞれのユークリッド距離は、dist(1)=10、dist(2)=77、dist(3)=65、dist(j)=84となっている。
この場合、d1=dist(1)、d1=dist(3)と置き換えられ、条件式(5)を満たす(10<65×0.6=39)ので、(x1,y1)に対して(x1’,y1’)が対応点と判定される。
In FIG. 7, (x1, y1) and (x1', y1'), (x1, y1) and (x2', y2'), (x1, y1) and (x3', y3'), (x1, y1) ) And (xj', yj') Euclidean distances are calculated. As a result, the Euclidean distances of the feature points of the broadcast image 52 with respect to (x1, y1) are dist (1) = 10, dist (2) = 77, dist (3) = 65, and dist (j) = 84. ing.
In this case, d1 = dust (1) and d1 = dust (3) are replaced, and the conditional expression (5) is satisfied (10 <65 × 0.6 = 39). ', Y1') is determined to be the corresponding point.

ステップS15において、判定部23は、撮像画像と放送画像との特徴点の合致率が所定以上か否かを判定する。すなわち、判定部23は、対応点数をNumM、V’の特徴点数をNumV’、合致率の閾値をPMとすると、式(7)を満たすか否かを判定する。
(NumM/NumV’)>PM ・・・(7)
ここで、閾値PMは、例えば0.6とするが、撮像時の環境又は撮像部11の仕様によって調整されてよい。
この判定がYESの場合、判定部23は、チャンネルが合致していると判断し、処理はステップS16に移る。一方、判定がNOの場合、処理はステップS12に戻り、判定部23は、チャンネル番号を変更して、ステップS12〜S15を繰り返す。
In step S15, the determination unit 23 determines whether or not the matching rate of the feature points between the captured image and the broadcast image is equal to or higher than a predetermined value. That is, the determination unit 23 determines whether or not the equation (7) is satisfied, assuming that the corresponding points are Numm, the feature points of V'are NuMV', and the threshold value of the matching rate is PM.
(NumM / NuMV')> PM ・ ・ ・ (7)
Here, the threshold PM is set to, for example, 0.6, but may be adjusted depending on the environment at the time of imaging or the specifications of the imaging unit 11.
If this determination is YES, the determination unit 23 determines that the channels match, and the process proceeds to step S16. On the other hand, when the determination is NO, the process returns to step S12, and the determination unit 23 changes the channel number and repeats steps S12 to S15.

ステップS16において、判定部23は、ステップS12で選択したチャンネル番号を、ロボット10に返信する。 In step S16, the determination unit 23 returns the channel number selected in step S12 to the robot 10.

なお、合致すると判断されるチャンネルが存在しない場合、判定部23は、撮像画像内に検出された領域はテレビ受像機ではない、又は判定サーバ20が対象としないチャンネルと判断し、エラー出力して処理を終了する。 If there is no channel determined to match, the determination unit 23 determines that the area detected in the captured image is not a television receiver or the channel 20 is not the target of the determination server 20, and outputs an error. End the process.

以上のように、チャンネル識別システム1において、ロボット10は、撮像部11で撮像した画像からテレビ受像機を検出し、検出したテレビ受像機の画像の特徴量を算出した後、判定サーバ20へ送信する。判定サーバ20は、ロボット10から送信された特徴量を、記憶されているチャンネル毎のデータと比較することにより、テレビ受像機で選局中のチャンネルを識別する。
本実施形態のチャンネル識別方法では、ロボット10からインターネットを介して判定サーバ20に問い合わせするため、複数台のロボット10−1〜Nからの問い合わせに対応できる。
As described above, in the channel identification system 1, the robot 10 detects the television receiver from the image captured by the imaging unit 11, calculates the feature amount of the detected image of the television receiver, and then transmits it to the determination server 20. To do. The determination server 20 identifies the channel being selected by the television receiver by comparing the feature amount transmitted from the robot 10 with the stored data for each channel.
In the channel identification method of the present embodiment, since the robot 10 makes an inquiry to the determination server 20 via the Internet, it is possible to respond to inquiries from a plurality of robots 10-1 to N.

本実施形態によれば、チャンネル識別システム1は、テレビ受像機の画面内に標識画像を埋め込んだり、テレビ受像機に特殊な装置を付加したりすることなく、テレビ受像機の画面部分が時間的に変化する映像であるという特徴から、ロボット10のカメラで撮像した画像からテレビ受像機を認識できる。
そして、チャンネル識別システム1は、ロボット10が認識したテレビ画像から画像情報を抽出し、抽出したデータをインターネットなどの通信回線を介して判定サーバ20へ送信し、判定サーバ20が受信した画像情報と放送画像の画像情報とを比較して、合致したチャンネル番号をロボット10に返すことで選局中のチャンネルを識別する。
このように、チャンネル識別システム1は、ロボット10とテレビ受像機とが通信を行うことなく、テレビ受像機を認識し、さらに、選局中のチャンネルを識別できる。
According to the present embodiment, in the channel identification system 1, the screen portion of the television receiver is temporally displayed without embedding a marker image in the screen of the television receiver or adding a special device to the television receiver. The television receiver can be recognized from the image captured by the camera of the robot 10 because the image changes to.
Then, the channel identification system 1 extracts image information from the television image recognized by the robot 10, transmits the extracted data to the determination server 20 via a communication line such as the Internet, and together with the image information received by the determination server 20. By comparing with the image information of the broadcast image and returning the matching channel number to the robot 10, the channel being selected is identified.
In this way, the channel identification system 1 can recognize the television receiver and further identify the channel being selected without the robot 10 and the television receiver communicating with each other.

したがって、チャンネル識別システム1では、テレビ受像機の位置を認識し放送チャンネルを識別する際の制約が少ない。この結果、ロボット10に放送受信機能を搭載する必要がないのと同時に、テレビ受像機にロボット10と通信を行うための特別な機能を必要とせず、チャンネルを特定することができる。このため、テレビ受像機がインターネットに接続していない環境、又はロボット10などのデバイスやテレビ受像機が室内ではなく室外にある環境などにおいても、チャンネル識別システム1によりチャンネルを特定できる。 Therefore, in the channel identification system 1, there are few restrictions when recognizing the position of the television receiver and identifying the broadcast channel. As a result, it is not necessary to equip the robot 10 with a broadcast reception function, and at the same time, the TV receiver does not need a special function for communicating with the robot 10, and the channel can be specified. Therefore, the channel can be specified by the channel identification system 1 even in an environment where the TV receiver is not connected to the Internet, or in an environment where the device such as the robot 10 or the TV receiver is outdoors instead of indoors.

また、チャンネル識別システム1は、画像情報として特徴点、及び特徴点毎の特徴量を抽出する。したがって、ロボット10と判定サーバ20との間の通信負荷、及び判定サーバ20におけるデータ蓄積量が低減され、さらに、画像情報のマッチング処理が効率化される。 In addition, the channel identification system 1 extracts feature points and feature quantities for each feature point as image information. Therefore, the communication load between the robot 10 and the determination server 20 and the amount of data stored in the determination server 20 are reduced, and the matching process of image information is made more efficient.

チャンネル識別システム1は、撮像画像から検出したテレビ受像機の領域が長方形の画面形状と異なる場合、例えば画面を正面から撮像していないために台形として検出された場合などには、画面形状に画像変換した後に画像情報を抽出する。したがって、チャンネル識別システム1は、テレビ受像機の撮像画像と放送画像との差異を低減し、チャンネルの識別精度を向上できる。 The channel identification system 1 has an image in the screen shape when the area of the television receiver detected from the captured image is different from the rectangular screen shape, for example, when the screen is detected as a trapezoid because the screen is not captured from the front. Image information is extracted after conversion. Therefore, the channel identification system 1 can reduce the difference between the captured image and the broadcast image of the television receiver and improve the channel identification accuracy.

また、チャンネル識別システム1は、テレビ受像機の一部のみが撮像された場合には、撮像方向を調整してテレビ画面の全体を撮像して画像情報を抽出する。したがって、チャンネル識別システム1は、テレビ受像機を探索することにより、精度良く放送チャンネルを識別できる。 Further, when only a part of the television receiver is imaged, the channel identification system 1 adjusts the imaging direction to image the entire television screen and extract image information. Therefore, the channel identification system 1 can accurately identify the broadcast channel by searching for the television receiver.

さらに、チャンネル識別システム1は、撮像されたテレビ受像機の領域が所定の大きさに満たない場合、撮像部11のズームを調整して画像情報を抽出する。したがって、チャンネル識別システム1は、適切な大きさの撮像画像から画像情報を抽出することにより、テレビ受像機の撮像画像と放送画像との差異を低減し、チャンネルの識別精度を向上できる。 Further, the channel identification system 1 adjusts the zoom of the image pickup unit 11 to extract image information when the area of the imaged television receiver is less than a predetermined size. Therefore, the channel identification system 1 can reduce the difference between the captured image of the television receiver and the broadcast image and improve the channel identification accuracy by extracting the image information from the captured image of an appropriate size.

チャンネル識別システム1は、ロボット10から複数の連続した画像情報を判定サーバ20へ送信する。したがって、チャンネル識別システム1は、ロボット10と判定サーバ20とで時刻情報が一致しない場合、例えばフレームが異なり画像が大きく異なる場合であっても、対応する画像情報が得られる可能性が高まるので、チャンネルの識別精度が向上する。 The channel identification system 1 transmits a plurality of continuous image information from the robot 10 to the determination server 20. Therefore, the channel identification system 1 increases the possibility that the corresponding image information can be obtained even if the time information does not match between the robot 10 and the determination server 20, for example, even if the frames are different and the images are significantly different. Channel identification accuracy is improved.

さらに、チャンネル識別システム1は、判定サーバ20において撮像時刻の前後所定範囲の画像情報とマッチングを試みる。したがって、チャンネル識別システム1は、ロボット10と判定サーバ20とで両者が共に正確な時刻情報を持っていない場合にも、対応する画像情報を探索して精度良く放送チャンネルを識別できる。 Further, the channel identification system 1 attempts to match the image information in a predetermined range before and after the imaging time on the determination server 20. Therefore, even when the robot 10 and the determination server 20 do not have accurate time information, the channel identification system 1 can search for the corresponding image information and identify the broadcast channel with high accuracy.

また、チャンネル識別システム1は、ロボット10から画像情報を受信した時刻から、想定される処理時間及び通信時間などを減じることにより、撮像時刻を算出できる。したがって、チャンネル識別システム1は、ロボット10が正確な時刻情報を有していない場合にも、判定サーバ20において対応する画像情報を適切に選択できる。 Further, the channel identification system 1 can calculate the imaging time by subtracting the assumed processing time, communication time, and the like from the time when the image information is received from the robot 10. Therefore, the channel identification system 1 can appropriately select the corresponding image information in the determination server 20 even when the robot 10 does not have accurate time information.

以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments. Further, the effects described in the present embodiment merely list the most preferable effects arising from the present invention, and the effects according to the present invention are not limited to those described in the present embodiment.

本実施形態では、制御部13は、ロボット10に搭載された撮像部11(カメラ)の向き及びズームを制御したが、これには限られない。テレビ受像機の全体が写っていない場合、又は形状若しくは大きさが適当でない場合など、ロボット10全体を移動させることで位置を変更して撮像してもよい。
また、制御部13は、テレビ受像機と判定される四角形の領域が検出できない場合、音声の方向に撮像部11を向けて探索してもよい。
さらに、ロボット10は、撮像部11による撮像処理を、音声をトリガーとして開始し、定常時の負荷を低減してもよい。
In the present embodiment, the control unit 13 controls the orientation and zoom of the image pickup unit 11 (camera) mounted on the robot 10, but the present invention is not limited to this. When the entire television receiver is not shown, or when the shape or size is not appropriate, the position may be changed by moving the entire robot 10 to take an image.
Further, when the quadrangular region determined to be the television receiver cannot be detected, the control unit 13 may search by pointing the image pickup unit 11 in the direction of the sound.
Further, the robot 10 may start the imaging process by the imaging unit 11 with the voice as a trigger to reduce the load in the steady state.

本実施形態では、画像情報として特徴量を用いたが、これには限られず、ロボット10は、例えば検出したテレビ受像機の領域の画像データそのものを送信してもよい。これにより、通信帯域に余裕があり即時性を必要としない場合には、より精度の良い画像マッチングが可能となる。
一方、特徴量を抽出した場合には、送信データ量を削減しつつも、解像度を落として送信する場合に比べて、マッチングによる判定精度を高く保つことが可能となる。
In the present embodiment, the feature amount is used as the image information, but the robot 10 may transmit, for example, the image data itself of the detected area of the television receiver. As a result, more accurate image matching becomes possible when there is a margin in the communication band and immediacy is not required.
On the other hand, when the feature amount is extracted, it is possible to maintain high determination accuracy by matching as compared with the case where the transmission data amount is reduced and the resolution is lowered.

本実施形態では、テレビ受像機を撮像する端末をロボット10として説明したが、これには限られず、例えば、スマートフォン又はタブレット端末などの携帯機器に同様の機能を搭載し、ユーザが外出先で使用してもよい。
この場合、ユーザは、例えば街頭テレビを携帯機器のカメラで撮影し、識別されたチャンネルの放送番組を携帯機器で続けて視聴したり、番組の関連情報を取得したりすることができる。
また、この場合、携帯機器は、テレビ受像機の全体を撮像するために、カメラの向き又はズームなどの調整指示を、画面表示又は音声出力してもよい。
In the present embodiment, the terminal that captures the image of the television receiver has been described as the robot 10, but the robot 10 is not limited to this. You may.
In this case, the user can, for example, shoot a street television with a camera of a mobile device, continuously watch a broadcast program of the identified channel on the mobile device, or acquire related information of the program.
Further, in this case, the portable device may display an adjustment instruction such as the direction or zoom of the camera on the screen or output the sound in order to capture the entire image of the television receiver.

チャンネル識別システム1の機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。 A program for realizing the function of the channel identification system 1 may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed.

ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。 The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system.

さらに「コンピュータで読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線のように、短時刻の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時刻プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。 Furthermore, a "computer-readable recording medium" is a communication line that transmits a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. It may also include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client in that case. Further, the above-mentioned program may be a program for realizing a part of the above-mentioned functions, and may be a program for realizing the above-mentioned functions in combination with a program already recorded in the computer system. ..

1 チャンネル識別システム
10 ロボット(端末)
11 撮像部
12 検出部
13 制御部
14 抽出部
15 通信部
20 判定サーバ(サーバ)
21 抽出部
22 記憶部
23 判定部
1 channel identification system 10 robot (terminal)
11 Imaging unit 12 Detection unit 13 Control unit 14 Extraction unit 15 Communication unit 20 Judgment server (server)
21 Extraction unit 22 Storage unit 23 Judgment unit

Claims (7)

互いに通信接続された端末及びサーバを有し、
前記端末は、
撮像部と、
前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出する検出部と、
前記領域のエッジである線分の交点が4個未満であり、前記領域が前記撮像部により撮像された画像の外縁を含む場合、前記テレビ受像機の一部のみが撮像されていると判定し、前記交点が4個となるように前記撮像部の撮像方向を当該外縁の方向へ移動させる第1制御部と、
前記検出部により検出された領域内の画像情報を抽出する抽出部と、
前記画像情報を前記サーバに送信する通信部と、を備え、
前記サーバは、
チャンネル毎の放送映像の画像情報を放送時刻と対応付けて記憶する記憶部と、
前記端末から受信した画像情報を、当該画像情報の撮像時刻に対応する前記記憶部に記憶された画像情報と比較し、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定する判定部と、を備えるチャンネル識別システム。
It has terminals and servers that are connected to each other by communication.
The terminal
Imaging unit and
A detection unit that detects a quadrangular region in which differences of a predetermined value or more are gathered as a region of a television receiver based on the differences between the images captured by the imaging unit.
When there are less than four intersections of line segments that are edges of the region and the region includes the outer edge of the image captured by the imaging unit, it is determined that only a part of the television receiver is imaged. A first control unit that moves the imaging direction of the imaging unit toward the outer edge so that the number of intersections is four .
An extraction unit that extracts image information in the area detected by the detection unit, and an extraction unit.
A communication unit that transmits the image information to the server is provided.
The server
A storage unit that stores image information of broadcast video for each channel in association with the broadcast time,
The image information received from the terminal is compared with the image information stored in the storage unit corresponding to the imaging time of the image information, and the channel selected by the television receiver is determined based on the degree of matching. A channel identification system including a determination unit.
前記抽出部は、前記画像情報として、前記領域内の特徴点、及び当該特徴点毎の特徴量を抽出し、
前記記憶部は、前記放送映像の特徴点、及び当該特徴点毎の特徴量を記憶する請求項1に記載のチャンネル識別システム。
The extraction unit extracts the feature points in the region and the feature amount for each feature point as the image information.
The channel identification system according to claim 1, wherein the storage unit stores the feature points of the broadcast video and the feature amount for each feature point.
前記抽出部は、前記領域内の画像をテレビ画面に相当する所定の形状に変換した後、前記領域内の画像情報を抽出する請求項1又は請求項2に記載のチャンネル識別システム。 The channel identification system according to claim 1 or 2, wherein the extraction unit extracts image information in the region after converting an image in the region into a predetermined shape corresponding to a television screen. 前記端末は、前記領域が所定の大きさに満たない場合、当該領域が所定の大きさ以上となるように前記撮像部のズーム設定を調整する第2制御部を備える請求項1から請求項3のいずれかに記載のチャンネル識別システム。 Claims 1 to 3 include a second control unit that adjusts the zoom setting of the imaging unit so that the area becomes a predetermined size or more when the area is less than a predetermined size. The channel identification system described in any of. 前記判定部は、前記撮像時刻の前後所定範囲の画像情報を前記記憶部から抽出する請求項1から請求項4のいずれかに記載のチャンネル識別システム。 The channel identification system according to any one of claims 1 to 4, wherein the determination unit extracts image information in a predetermined range before and after the imaging time from the storage unit. 撮像部と、
前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出する検出部と、
前記領域のエッジである線分の交点が4個未満であり、前記領域が前記撮像部により撮像された画像の外縁を含む場合、前記テレビ受像機の一部のみが撮像されていると判定し、前記交点が4個となるように前記撮像部の撮像方向を当該外縁の方向へ移動させる制御部と、
前記検出部により検出された領域内の画像情報を抽出する抽出部と、
前記画像情報をサーバに送信し、当該サーバに記憶されているチャンネル毎の放送映像の画像情報と比較することにより、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定させる通信部と、を備えるチャンネル識別装置。
Imaging unit and
A detection unit that detects a quadrangular region in which differences of a predetermined value or more are gathered as a region of a television receiver based on the differences between the images captured by the imaging unit.
When there are less than four intersections of line segments that are edges of the region and the region includes the outer edge of the image captured by the imaging unit, it is determined that only a part of the television receiver is imaged. , A control unit that moves the imaging direction of the imaging unit toward the outer edge so that the number of intersections is four .
An extraction unit that extracts image information in the area detected by the detection unit, and an extraction unit.
By transmitting the image information to the server and comparing it with the image information of the broadcast video for each channel stored in the server, the channel selected by the television receiver is determined based on the degree of matching. A channel identification device including a communication unit.
撮像部を備えたコンピュータに、
前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出させ、
前記領域のエッジである線分の交点が4個未満であり、前記領域が前記撮像部により撮像された画像の外縁を含む場合、前記交点が4個となるように前記テレビ受像機の一部のみが撮像されていると判定させ、前記撮像部の撮像方向を当該外縁の方向へ移動させ、
検出された領域内の画像情報を抽出させ、
前記画像情報をサーバに送信し、当該サーバに記憶されているチャンネル毎の放送映像の画像情報と比較することにより、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定させるためのチャンネル識別プログラム。
For a computer equipped with an imaging unit
Based on the differences between the images captured by the imaging unit, a quadrangular region in which differences of a predetermined value or more are gathered is detected as a region of the television receiver.
When there are less than four intersections of line segments that are edges of the region and the region includes the outer edge of the image captured by the imaging unit, a part of the television receiver so that the number of intersections is four. It is determined that only the image is captured, and the imaging direction of the imaging unit is moved toward the outer edge.
Extract the image information in the detected area and
By transmitting the image information to the server and comparing it with the image information of the broadcast video for each channel stored in the server, the channel selected by the television receiver is determined based on the degree of matching. Channel identification program for.
JP2016146032A 2016-07-26 2016-07-26 Channel identification systems, devices, methods and programs Active JP6770847B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016146032A JP6770847B2 (en) 2016-07-26 2016-07-26 Channel identification systems, devices, methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016146032A JP6770847B2 (en) 2016-07-26 2016-07-26 Channel identification systems, devices, methods and programs

Publications (2)

Publication Number Publication Date
JP2018019156A JP2018019156A (en) 2018-02-01
JP6770847B2 true JP6770847B2 (en) 2020-10-21

Family

ID=61076845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016146032A Active JP6770847B2 (en) 2016-07-26 2016-07-26 Channel identification systems, devices, methods and programs

Country Status (1)

Country Link
JP (1) JP6770847B2 (en)

Also Published As

Publication number Publication date
JP2018019156A (en) 2018-02-01

Similar Documents

Publication Publication Date Title
US10580206B2 (en) Method and apparatus for constructing three-dimensional map
US7423669B2 (en) Monitoring system and setting method for the same
Walia et al. Recent advances on multicue object tracking: a survey
US9760791B2 (en) Method and system for object tracking
CN116018616A (en) Maintaining a fixed size of a target object in a frame
CN102792317B (en) Based on the Image Feature Detection of the application of multiple property detector
US9008366B1 (en) Bio-inspired method of ground object cueing in airborne motion imagery
CN107707871B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US8842162B2 (en) Method and system for improving surveillance of PTZ cameras
JP6362085B2 (en) Image recognition system, image recognition method and program
JP2007058634A (en) Image processing method and image processor, digital camera equipment, and recording medium with image processing program stored thereon
CN106934351B (en) Gesture recognition method and device and electronic equipment
KR20090087670A (en) Method and system for extracting the photographing information
CN107480580B (en) Image recognition method and image recognition device
KR102297217B1 (en) Method and apparatus for identifying object and object location equality between images
US10163212B2 (en) Video processing system and method for deformation insensitive tracking of objects in a sequence of image frames
CN109714530B (en) Aerial camera image focusing method
CN114298902A (en) Image alignment method and device, electronic equipment and storage medium
CN112291478A (en) Method, device and equipment for monitoring high-altitude falling object and storage medium
González et al. Single object long-term tracker for smart control of a ptz camera
CN111144156A (en) Image data processing method and related device
JP6770847B2 (en) Channel identification systems, devices, methods and programs
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP2016081095A (en) Subject tracking device, control method thereof, image-capturing device, display device, and program
JP6717769B2 (en) Information processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200928

R150 Certificate of patent or registration of utility model

Ref document number: 6770847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250