JP6770847B2 - Channel identification systems, devices, methods and programs - Google Patents
Channel identification systems, devices, methods and programs Download PDFInfo
- Publication number
- JP6770847B2 JP6770847B2 JP2016146032A JP2016146032A JP6770847B2 JP 6770847 B2 JP6770847 B2 JP 6770847B2 JP 2016146032 A JP2016146032 A JP 2016146032A JP 2016146032 A JP2016146032 A JP 2016146032A JP 6770847 B2 JP6770847 B2 JP 6770847B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image information
- region
- image
- television receiver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 35
- 238000003384 imaging method Methods 0.000 claims description 59
- 238000001514 detection method Methods 0.000 claims description 32
- 238000000605 extraction Methods 0.000 claims description 32
- 238000004891 communication Methods 0.000 claims description 21
- 239000000284 extract Substances 0.000 claims description 20
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 239000000428 dust Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
Description
本発明は、受像機で提示中の放送チャンネルを識別するチャンネル識別装置、チャンネル識別方法及びチャンネル識別プログラムに関する。 The present invention relates to a channel identification device for identifying a broadcast channel being presented by a receiver, a channel identification method, and a channel identification program.
近年、ユーザと生活を共にするパートナーの役割を果たす家庭用ロボットが開発されてきている。このようなロボットは、テレビ受像機を認識して位置を把握することで、テレビ受像機とロボットとの位置関係を利用した制御をすることができる。さらに、テレビ受像機とロボットとの位置関係を把握した上で、テレビ受像機で選局中の放送チャンネルを識別することにより、ロボットは、選局中の放送チャンネルに関連した動作及び情報などをユーザに提供できる。 In recent years, domestic robots that play the role of partners who live with users have been developed. By recognizing the TV receiver and grasping the position of such a robot, it is possible to perform control using the positional relationship between the TV receiver and the robot. Furthermore, by grasping the positional relationship between the TV receiver and the robot and then identifying the broadcast channel being selected by the TV receiver, the robot can perform operations and information related to the broadcast channel being selected. Can be provided to users.
このような状況において、例えば、特許文献1では、自走可能ロボットがテレビ受像機の画面位置を取得するために、画面内の所定の位置に、所定の模様、色又は二次元バーコードなどの標識画像を埋め込む方法が提案されている。
また、特許文献2では、自走可能ロボットが放送チャンネルを特定するために4つの手法が提案されている。第1の手法は、音声又は文字などでユーザに問い合わせる方法である。第2の手法は、インターネット又は赤外線などの通信回線を介してテレビ受像機と通信することでテレビ受像機の動作状態情報を取得する方法である。第3の手法は、放送受信機能をロボットに搭載し、ロボットで受信中の放送チャンネルを順次切り替えて画像データを比較する方法である。第4の手法は、放送チャンネルを順次切り替えて出力させた音声信号を取得し、テレビ受像機から伝播してくる音声信号と比較することでテレビ受像機が受信している放送チャンネルを特定する方法である。
In such a situation, for example, in
Further,
しかしながら、ユーザが放送番組を視聴している状況でロボットがテレビ受像機の位置を認識しようとした場合、特許文献1の技術では、テレビ受像機の表示画面内に標識画像が埋め込まれるため、番組視聴の妨げになる。
However, when the robot tries to recognize the position of the television receiver while the user is watching a broadcast program, the technique of
また、特許文献2の技術によりロボットが放送チャンネルを識別する場合、選局中の放送チャンネルをユーザに問い合わせる第1手法では、ロボットが自動で放送チャンネルを識別することができない。ロボットがテレビ受像機との通信を介して放送チャンネルを識別する第2の手法では、テレビ受像機がロボットとのデータ通信機能を有する必要がある。第3及び第4の手法では、ロボット内に放送受信手段を搭載する必要があり、さらに、放送波を受信できる状況が必要となるため、ロボット本体の位置に制限が生じる。
Further, when the robot identifies a broadcast channel by the technique of
本発明は、テレビ受像機の位置を認識し放送チャンネルを識別する際の制約が少ないチャンネル識別システム、チャンネル識別装置、チャンネル識別方法及びチャンネル識別プログラムを提供することを目的とする。 An object of the present invention is to provide a channel identification system, a channel identification device, a channel identification method, and a channel identification program, which have few restrictions on recognizing the position of a television receiver and identifying a broadcast channel.
本発明に係るチャンネル識別システムは、互いに通信接続された端末及びサーバを有し、前記端末は、撮像部と、前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出する検出部と、前記検出部により検出された領域内の画像情報を抽出する抽出部と、前記画像情報を前記サーバに送信する通信部と、を備え、前記サーバは、チャンネル毎の放送映像の画像情報を放送時刻と対応付けて記憶する記憶部と、前記端末から受信した画像情報を、当該画像情報の撮像時刻に対応する前記記憶部に記憶された画像情報と比較し、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定する判定部と、を備える。 The channel identification system according to the present invention has a terminal and a server that are communicated with each other, and the terminal collects a predetermined or greater difference based on the difference between the image pickup unit and the image captured by the image pickup unit. A detection unit that detects the square area of the TV receiver as an area of the TV receiver, an extraction unit that extracts image information in the area detected by the detection unit, and a communication unit that transmits the image information to the server. The server has a storage unit that stores image information of broadcast video for each channel in association with the broadcast time, and stores that store image information received from the terminal in accordance with the imaging time of the image information. It is provided with a determination unit for determining a channel selected by the television receiver based on the degree of matching by comparing with the image information stored in the unit.
前記抽出部は、前記画像情報として、前記領域内の特徴点、及び当該特徴点毎の特徴量を抽出し、前記記憶部は、前記放送映像の特徴点、及び当該特徴点毎の特徴量を記憶してもよい。 The extraction unit extracts the feature points in the region and the feature amount for each feature point as the image information, and the storage unit extracts the feature points of the broadcast image and the feature amount for each feature point. You may remember.
前記抽出部は、前記領域内の画像をテレビ画面に相当する所定の形状に変換した後、前記領域内の画像情報を抽出してもよい。 The extraction unit may extract the image information in the region after converting the image in the region into a predetermined shape corresponding to the television screen.
前記端末は、前記領域が前記撮像部により撮像された画像の外縁を含む場合、前記撮像部の撮像方向を当該外縁の方向へ移動させるための第1制御部を備えてもよい。 When the region includes the outer edge of the image captured by the imaging unit, the terminal may include a first control unit for moving the imaging direction of the imaging unit toward the outer edge.
前記端末は、前記領域が所定の大きさに満たない場合、当該領域が所定の大きさ以上となるように前記撮像部のズーム設定を調整する第2制御部を備えてもよい。 When the area is less than a predetermined size, the terminal may include a second control unit that adjusts the zoom setting of the imaging unit so that the area is larger than the predetermined size.
前記判定部は、前記撮像時刻の前後所定範囲の画像情報を前記記憶部から抽出してもよい。 The determination unit may extract image information in a predetermined range before and after the imaging time from the storage unit.
本発明に係るチャンネル識別装置は、撮像部と、前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出する検出部と、前記検出部により検出された領域内の画像情報を抽出する抽出部と、前記画像情報をサーバに送信し、当該サーバに記憶されているチャンネル毎の放送映像の画像情報と比較することにより、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定させる通信部と、を備える。 The channel identification device according to the present invention detects a square region in which differences of a predetermined value or more are gathered as a region of a television receiver based on the difference between the imaging unit and the image captured by the imaging unit. The detection unit, the extraction unit that extracts the image information in the area detected by the detection unit, and the image information are transmitted to the server and compared with the image information of the broadcast video for each channel stored in the server. As a result, a communication unit for determining the channel selected by the television receiver based on the degree of matching is provided.
本発明に係るチャンネル識別プログラムは、撮像部を備えたコンピュータに、前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出させ、検出された領域内の画像情報を抽出させ、前記画像情報をサーバに送信し、当該サーバに記憶されているチャンネル毎の放送映像の画像情報と比較することにより、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定させる。 In the channel identification program according to the present invention, in a computer provided with an imaging unit, a square region in which differences of a predetermined value or more are gathered based on the differences between images captured by the imaging unit is formed on a television receiver. By detecting it as an area, extracting the image information in the detected area, transmitting the image information to the server, and comparing it with the image information of the broadcast video for each channel stored in the server, the degree of matching can be determined. Based on this, the channel selected by the television receiver is determined.
本発明によれば、テレビ受像機の位置を認識し放送チャンネルを識別する際の制約が少なくなる。 According to the present invention, there are less restrictions on recognizing the position of the television receiver and identifying the broadcast channel.
以下、本発明の実施形態の一例について説明する。
本実施形態に係るチャンネル識別システム1は、ロボットなどのデバイス(端末)に搭載しているカメラで撮像した画像からテレビ受像機の位置を認識し、認識したテレビ画像の画像特徴量と、放送画像の画像特徴量とを比較することで、テレビ受像機で選局中のチャンネルを識別する。
なお、テレビ受像機は、据え置き型の専用機に限られない。テレビ画面は、例えばPCのディスプレイに表示されるアプリケーションウインドウなども含み、放送映像が表示される領域を示す。
Hereinafter, an example of the embodiment of the present invention will be described.
The
The TV receiver is not limited to a stationary dedicated machine. The television screen also includes, for example, an application window displayed on a PC display, and indicates an area on which a broadcast image is displayed.
図1は、本実施形態に係るチャンネル識別システム1の機能構成を示す図である。
チャンネル識別システム1は、チャンネル識別装置としての複数のロボット10(端末)と、判定サーバ20とを備える。複数のロボット10(10−1、2、・・・、N)と判定サーバ20とは、それぞれインターネットなどを介して通信接続されている。
なお、チャンネル識別装置は、家庭用のロボット10には限られず、カメラを備えた他の情報処理装置、例えばスマートフォン又はタブレット端末などであってもよい。
FIG. 1 is a diagram showing a functional configuration of the
The
The channel identification device is not limited to the
ロボット10は、撮像部11と、検出部12と、制御部13(第1制御部、第2制御部)と、抽出部14と、通信部15とを備える。
判定サーバ20は、抽出部21と、記憶部22と、判定部23とを備える。
The
The
撮像部11は、動画又は静止画を撮像するカメラであり、撮像、ズーム、輝度の変更などが制御部13からの制御データにより制御される。また、撮像部11は、制御部13からの制御データによりカメラ方向(撮像方向)を変更する。
The
検出部12は、撮像部11により撮像された画像(フレーム)間の差分に基づいて、所定以上の差分がある画素が集合している四角形の領域を、テレビ受像機の領域として検出する。
Based on the difference between the images (frames) captured by the
制御部13は、検出部12による検出結果に応じて、撮像部11の撮像方向又はズームを制御する。
具体的には、検出された領域が撮像部11により撮像された画像の外縁を含む場合、すなわち、テレビ受像機の一部のみが撮像されている場合、制御部13(第1制御部)は、撮像部11の撮像方向をこの外縁の方向へ移動させる。
また、検出された領域が所定の大きさに満たない場合、制御部13(第2制御部)は、この領域が所定の大きさ以上となるように撮像部のズーム設定を調整する。
The
Specifically, when the detected region includes the outer edge of the image captured by the
When the detected region is less than a predetermined size, the control unit 13 (second control unit) adjusts the zoom setting of the imaging unit so that this region is larger than the predetermined size.
図2は、本実施形態に係るテレビ受像機の画面領域の検出処理を示すフローチャートである。
なお、この検出処理では、一例としてケニーのエッジ検出アルゴリズム(例えば、「ディジタル画像処理[改訂新版]、pp232〜233、画像情報教育振興協会、2015」参照)を用いている。
FIG. 2 is a flowchart showing a detection process of a screen area of the television receiver according to the present embodiment.
In this detection process, Kenny's edge detection algorithm (see, for example, "Digital Image Processing [Revised New Edition], pp232-233, Image Information Education Promotion Association, 2015") is used as an example.
ステップS1において、検出部12は、撮像部11で撮像された画像データを取得する。取得する画像データは、同位置で撮像した、例えば動画における連続したフレーム、又は撮像時刻が連続した複数の静止画像であってよい。
In step S1, the
ステップS2において、検出部12は、ステップS1で取得した複数の画像データを用いて、各画素における差分を算出する。画素(x,y)における画素値は、例えば輝度G(x,y)である。これにより、検出部12は、時間的に連続する画像間で動きのある領域を、各画素の差分値が集合している領域として切り出す。
In step S2, the
ステップS3において、検出部12は、画像内のエッジ成分を検出すために、まずステップS2で得られた差分値からなる差分画像に対して、ノイズの影響を減らすために平滑化処理を施す。例えば、検出部12は、ガウシアンフィルタを用いて差分画像を平滑化する。
検出部12は、平滑化した差分画像を、さらに所定の閾値により2値化してもよい。
In step S3, in order to detect the edge component in the image, the
The
ステップS4において、検出部12は、x方向及びy方向の勾配ベクトルを、各方向に対する輝度値の微分により算出し、勾配強度及び勾配方向を算出する。
なお、x方向の勾配ベクトルをfx(x,y)、y方向の勾配ベクトルをfy(x,y)とすると、勾配強度g(x,y)及び勾配方向d(x,y)は、次の式(1)及び(2)で表される。
g(x,y)=(fx(x,y)2+fy(x,y)2)1/2 ・・・(1)
d(x,y)=tan−1(fy(x,y)/fx(x,y)) ・・・(2)
In step S4, the
Assuming that the gradient vector in the x direction is fx (x, y) and the gradient vector in the y direction is fy (x, y), the gradient intensity g (x, y) and the gradient direction d (x, y) are as follows. It is represented by the equations (1) and (2) of.
g (x, y) = (fx (x, y) 2 + fy (x, y) 2 ) 1/2 ... (1)
d (x, y) = tan -1 (fy (x, y) / fx (x, y)) ... (2)
ステップS5において、検出部12は、ステップS4の勾配強度を用いて、差分画像内のエッジ成分を検出する。エッジ点は、注目画素の近傍8点に比べて注目画素の勾配強度が局所的に最大になる点として定義される。
このとき、検出部12は、一定の閾値Thを用いて、勾配強度が閾値Th以上であればエッジ点とし、式(3)によりエッジ点のみを白色(G(x,y)=1)とした画像を生成する。
g(x,y)≧Th:G(x,y)=1
g(x,y)<Th:G(x,y)=0 ・・・(3)
In step S5, the
At this time, the
g (x, y) ≧ Th: G (x, y) = 1
g (x, y) <Th: G (x, y) = 0 ... (3)
なお、検出部12は、勾配強度に対して、上側の閾値及び下側の閾値を設け、両閾値の間の勾配強度の点をエッジ点として検出してもよい。
また、輝度の勾配を検出する手法は、これに限定されず、例えば、Sobelオペレータ又はPrewittオペレータなどが用いられてもよい。
The
Further, the method for detecting the gradient of brightness is not limited to this, and for example, a Sobel operator or a Prewitt operator may be used.
ステップS6において、検出部12は、ステップS5で検出された、画像内の直線の候補であるエッジ成分から、テレビ受像機と判断できる四角形の領域を検出する。
具体的には、検出部12は、まず、テレビ受像機の候補となる四角形領域を構成する線分を抽出する。線分を抽出するには、ハフ変換(例えば、「ディジタル画像処理[改訂新版]、pp238〜243、画像情報教育振興協会、2015」参照)などが利用可能である。
次に、検出部12は、任意に選定した線分から別の線分が交差する交点を辿っていき、最初に選定した線分に辿りつき、かつ、交点が合計で4箇所ある場合に、辿った線分の組み合わせを四角形と判定し、この四角形の領域をテレビ受像機と判断する。一方、交点が4箇所未満(例えば、2箇所)の場合は、テレビ受像機の一部が検出されていると判断する。
In step S6, the
Specifically, the
Next, the
ステップS7において、制御部13は、ステップS6において四角形の領域を検出できたか否かを判定する。この判定がYESの場合、処理は終了し、判定がNOの場合、処理はステップS8に移る。
In step S7, the
ステップS8において、制御部13は、撮像部11の撮像方向を変更し、ステップS1からS7を繰り返す。
In step S8, the
図3は、本実施形態に係る制御部13の制御による撮像部11の動作例を示す図である。
検出部12は、撮像した画像内における線分の交点31の数を用いて、画像内にテレビ受像機Aが存在しているか否かを判断する。図3(a)のように、テレビ受像機Aの全体が検出されていれば、制御部13は、撮像部11に対する制御データの送信を実行しない。
FIG. 3 is a diagram showing an operation example of the
The
一方、図3(b)のように、撮像した画像内にテレビ受像機Aの一部のみが存在していれば、制御部13は、テレビ受像機Aが撮像範囲に入るように撮像部11の角度を制御する。
例えば、制御部13は、撮像部11の向いている角度を15度右に変更するなどの制御データを送信する。また、撮像した画像内にテレビ受像機Aが検出されなければ、例えば、制御部13は、撮像部11の向いている角度を30度右に変更するなどの制御データを、撮像部11へ送信する。
On the other hand, as shown in FIG. 3B, if only a part of the television receiver A is present in the captured image, the
For example, the
図1に戻り、抽出部14は、検出部12によりテレビ受像機と認識された画像領域から、画像情報として特徴点、及びこれら特徴点毎の特徴量を抽出する。
このとき、抽出部14は、領域内の画像をテレビ受像機の画面に相当する所定の形状、すなわち長方形に変換した後、特徴量を抽出する。
Returning to FIG. 1, the
At this time, the
特徴量の種類は限定されないが、以下では、一例としてSIFT(Scale−InvariantFeatureTransform)(例えば、「ディジタル画像処理[改訂新版]、pp234〜237、画像情報教育振興協会、2015」参照)を用いた手法について説明する。 The type of feature amount is not limited, but in the following, as an example, a method using SIFT (Scale-Invariant Feature Transfer) (see, for example, "Digital Image Processing [Revised New Edition], pp234-237, Image Information Education Promotion Association, 2015"). Will be described.
図4は、本実施形態に係る抽出部14における特徴量抽出の動作を示す図である。
抽出部14は、検出部12で用いた勾配強度及び勾配方向を利用して、特徴点40における方向(オリエンテーション41)と、特徴点周辺における128次元の特徴量とを算出する。
FIG. 4 is a diagram showing an operation of feature amount extraction in the
The
まず、抽出部14は、勾配方向を36方向(10度単位)に量子化し、特徴点周辺における局所領域42内の勾配強度を、特徴点の中心から近いほど高く重み付けして投票し、重み付き勾配方向ヒストグラム43を作成する。勾配方向ヒストグラム43の最大値から80%以上となるピークの方向44を、局所領域内のオリエンテーション41とする。
First, the
次に、抽出部14は、オリエンテーション41に合致するように、特徴点周辺の画素値を取得するための局所領域42を回転する(45)。続いて、抽出部14は、矩形領域の1辺を4ブロック(46)、そして勾配方向を8方向(47)に分割して勾配方向ヒストグラムを作成し、4*4*8=128次元の特徴量を算出する。
Next, the
なお、特徴量の抽出手法はこれに限定されるものでなく、例えば、SURF(Scale−InvariantFeatureTransform)を用いてもよい。 The feature amount extraction method is not limited to this, and for example, SURF (Scale-InvariantFairtureTransform) may be used.
通信部15は、抽出部14から取得した画像情報に時刻情報を付加し、インターネットなどの通信回線を利用して判定サーバ20の判定部23へ送信する。
ここで、時刻情報は、撮像した時刻で、例えば西暦年、月、日、時、分、秒から構成され、YYYYMMDDhhmmssという文字列からなる。例えば、2016年3月15日23時59分59秒を表す場合、時刻情報は「20160315235959」となる。
The
Here, the time information is the time at which the image was taken, and is composed of, for example, the year, month, day, hour, minute, and second, and is composed of the character string YYYYMMDDhmmss. For example, when representing 23:59:59 on March 15, 2016, the time information is "20160315235959".
また、通信部15は、撮像部11により連続して撮像された複数の画像(フレーム)それぞれの画像情報を送信してもよい。これにより、判定サーバ20において記憶されている放送映像とのフレームのずれを抑制でき、マッチングできる可能性が向上する。
Further, the
判定サーバ20の抽出部21は、放送中の検出対象となるチャンネルをそれぞれ選局し、定期的に放送画像から、画像情報として、特徴点及びこれら特徴点毎の特徴量を抽出する。
記憶部22は、抽出部21から取得した各放送画像の特徴量を放送時刻情報と対応付けて記憶する。
The
The
判定部23は、ロボット10から受信した特徴量Vと、付加されている時刻情報に対応して記憶部22に記憶されている特徴量V’とを比較して選局中のチャンネルを特定し、特定したチャンネル番号をロボット10へ返信する。
The
このとき、判定部23は、撮像時刻の前後所定範囲の画像情報(特徴量V’)を記憶部から抽出し、それぞれを受信した特徴量Vと比較してよい。
また、判定部23は、ロボット10から画像情報(特徴量V)を受信した時刻から、ロボット10での処理時間及び通信時間などを含む所定時間を減じて、撮像時刻を算出してもよい。この場合、ロボット10から送信される特徴量V’に時刻情報は付加されなくてよい。
At this time, the
Further, the
図5は、本実施形態に係る特徴量のデータ構造例を示す図である。
ここでは、ロボット10の抽出部14において抽出された特徴量V(図5(a))、及び判定サーバ20の抽出部21により抽出された特徴量V’(図5(b))のデータ構造例を示す。
特徴量Vに関するデータは、特徴量を抽出した(x,y)座標位置、オリエンテーションの角度、及び128次元の特徴量で構成され、抽出した特徴量の総数はi個である。特徴量V’に関しても同様の構成となるが、抽出した特徴量の総数はj個である。
FIG. 5 is a diagram showing an example of a data structure of a feature amount according to the present embodiment.
Here, the data structure of the feature amount V (FIG. 5 (a)) extracted by the
The data regarding the feature amount V is composed of the (x, y) coordinate position where the feature amount is extracted, the orientation angle, and the 128-dimensional feature amount, and the total number of the extracted feature amounts is i. The feature amount V'has the same configuration, but the total number of extracted feature amounts is j.
図6は、本実施形態に係る判定部23によるチャンネル特定処理を示すフローチャートである。
ステップS11において、判定部23は、ロボット10の通信部15から、抽出部14において抽出された特徴量Vを取得する。
FIG. 6 is a flowchart showing a channel identification process by the
In step S11, the
ステップS12において、判定部23は、特徴量Vと比較するチャンネル番号を選択する。
ステップS13において、判定部23は、特徴量Vと、ステップS12で選択したチャンネルの放送画像から抽出された特徴量V’との距離をそれぞれの特徴点毎に算出する。このとき、特徴量Vと特徴量V’とは、付加された時刻情報に基づいて同時刻の情報で比較される。
In step S12, the
In step S13, the
特徴量Vと特徴量V’との距離は、例えば、ユークリッド距離が用いられる。特徴量Vと特徴量V’とのユークリッド距離dist(V,V’)は、式(4)で表される。
dist(V,V’)=√{Σ(vk−vk’)2}
V=(v1,v2,・・・,v128)
V’=(v1’,v2’,・・・,v128’) ・・・(4)
For the distance between the feature amount V and the feature amount V', for example, the Euclidean distance is used. The Euclidean distance dust (V, V') between the feature amount V and the feature amount V'is expressed by the equation (4).
dist (V, V') = √ {Σ (v k − v k ') 2 }
V = (v1, v2, ..., v128)
V'= (v1', v2', ..., v128') ... (4)
ステップS14において、判定部23は、特徴量V(V1,・・・,Vi)のそれぞれに対して、ステップS13で算出されたユークリッド距離distの値が小さい順にソートし、最も距離が小さい点をd1、次に小さい点をd2とする。
次に、判定部23は、式(5)を満たす点を画像間の対応点と判定する。
d1<d2×K ・・・(5)
ここで、係数Kは、例えばK=0.6を用いるが、撮像部11の特性を考慮して調整されてよい。
In step S14, the
Next, the
d1 <d2 × K ・ ・ ・ (5)
Here, the coefficient K uses, for example, K = 0.6, but may be adjusted in consideration of the characteristics of the
図7は、本実施形態に係る判定部23における対応点判定処理を示す概念図である。
ロボット10から取得した撮像画像51において、例えば、抽出部14で抽出される特徴量座標を(x1,y1)とする。
次に、判定サーバ20の抽出部21で扱う放送画像52において、抽出される特徴量座標を(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、・・・、(xj’,yj’)とする。
FIG. 7 is a conceptual diagram showing a corresponding point determination process in the
In the captured
Next, in the
図7では、(x1,y1)と(x1’,y1’)、(x1,y1)と(x2’,y2’)、(x1,y1)と(x3’,y3’)、(x1,y1)と(xj’,yj’)のユークリッド距離を算出している。この結果、(x1,y1)に対する放送画像52の特徴点それぞれのユークリッド距離は、dist(1)=10、dist(2)=77、dist(3)=65、dist(j)=84となっている。
この場合、d1=dist(1)、d1=dist(3)と置き換えられ、条件式(5)を満たす(10<65×0.6=39)ので、(x1,y1)に対して(x1’,y1’)が対応点と判定される。
In FIG. 7, (x1, y1) and (x1', y1'), (x1, y1) and (x2', y2'), (x1, y1) and (x3', y3'), (x1, y1) ) And (xj', yj') Euclidean distances are calculated. As a result, the Euclidean distances of the feature points of the
In this case, d1 = dust (1) and d1 = dust (3) are replaced, and the conditional expression (5) is satisfied (10 <65 × 0.6 = 39). ', Y1') is determined to be the corresponding point.
ステップS15において、判定部23は、撮像画像と放送画像との特徴点の合致率が所定以上か否かを判定する。すなわち、判定部23は、対応点数をNumM、V’の特徴点数をNumV’、合致率の閾値をPMとすると、式(7)を満たすか否かを判定する。
(NumM/NumV’)>PM ・・・(7)
ここで、閾値PMは、例えば0.6とするが、撮像時の環境又は撮像部11の仕様によって調整されてよい。
この判定がYESの場合、判定部23は、チャンネルが合致していると判断し、処理はステップS16に移る。一方、判定がNOの場合、処理はステップS12に戻り、判定部23は、チャンネル番号を変更して、ステップS12〜S15を繰り返す。
In step S15, the
(NumM / NuMV')> PM ・ ・ ・ (7)
Here, the threshold PM is set to, for example, 0.6, but may be adjusted depending on the environment at the time of imaging or the specifications of the
If this determination is YES, the
ステップS16において、判定部23は、ステップS12で選択したチャンネル番号を、ロボット10に返信する。
In step S16, the
なお、合致すると判断されるチャンネルが存在しない場合、判定部23は、撮像画像内に検出された領域はテレビ受像機ではない、又は判定サーバ20が対象としないチャンネルと判断し、エラー出力して処理を終了する。
If there is no channel determined to match, the
以上のように、チャンネル識別システム1において、ロボット10は、撮像部11で撮像した画像からテレビ受像機を検出し、検出したテレビ受像機の画像の特徴量を算出した後、判定サーバ20へ送信する。判定サーバ20は、ロボット10から送信された特徴量を、記憶されているチャンネル毎のデータと比較することにより、テレビ受像機で選局中のチャンネルを識別する。
本実施形態のチャンネル識別方法では、ロボット10からインターネットを介して判定サーバ20に問い合わせするため、複数台のロボット10−1〜Nからの問い合わせに対応できる。
As described above, in the
In the channel identification method of the present embodiment, since the
本実施形態によれば、チャンネル識別システム1は、テレビ受像機の画面内に標識画像を埋め込んだり、テレビ受像機に特殊な装置を付加したりすることなく、テレビ受像機の画面部分が時間的に変化する映像であるという特徴から、ロボット10のカメラで撮像した画像からテレビ受像機を認識できる。
そして、チャンネル識別システム1は、ロボット10が認識したテレビ画像から画像情報を抽出し、抽出したデータをインターネットなどの通信回線を介して判定サーバ20へ送信し、判定サーバ20が受信した画像情報と放送画像の画像情報とを比較して、合致したチャンネル番号をロボット10に返すことで選局中のチャンネルを識別する。
このように、チャンネル識別システム1は、ロボット10とテレビ受像機とが通信を行うことなく、テレビ受像機を認識し、さらに、選局中のチャンネルを識別できる。
According to the present embodiment, in the
Then, the
In this way, the
したがって、チャンネル識別システム1では、テレビ受像機の位置を認識し放送チャンネルを識別する際の制約が少ない。この結果、ロボット10に放送受信機能を搭載する必要がないのと同時に、テレビ受像機にロボット10と通信を行うための特別な機能を必要とせず、チャンネルを特定することができる。このため、テレビ受像機がインターネットに接続していない環境、又はロボット10などのデバイスやテレビ受像機が室内ではなく室外にある環境などにおいても、チャンネル識別システム1によりチャンネルを特定できる。
Therefore, in the
また、チャンネル識別システム1は、画像情報として特徴点、及び特徴点毎の特徴量を抽出する。したがって、ロボット10と判定サーバ20との間の通信負荷、及び判定サーバ20におけるデータ蓄積量が低減され、さらに、画像情報のマッチング処理が効率化される。
In addition, the
チャンネル識別システム1は、撮像画像から検出したテレビ受像機の領域が長方形の画面形状と異なる場合、例えば画面を正面から撮像していないために台形として検出された場合などには、画面形状に画像変換した後に画像情報を抽出する。したがって、チャンネル識別システム1は、テレビ受像機の撮像画像と放送画像との差異を低減し、チャンネルの識別精度を向上できる。
The
また、チャンネル識別システム1は、テレビ受像機の一部のみが撮像された場合には、撮像方向を調整してテレビ画面の全体を撮像して画像情報を抽出する。したがって、チャンネル識別システム1は、テレビ受像機を探索することにより、精度良く放送チャンネルを識別できる。
Further, when only a part of the television receiver is imaged, the
さらに、チャンネル識別システム1は、撮像されたテレビ受像機の領域が所定の大きさに満たない場合、撮像部11のズームを調整して画像情報を抽出する。したがって、チャンネル識別システム1は、適切な大きさの撮像画像から画像情報を抽出することにより、テレビ受像機の撮像画像と放送画像との差異を低減し、チャンネルの識別精度を向上できる。
Further, the
チャンネル識別システム1は、ロボット10から複数の連続した画像情報を判定サーバ20へ送信する。したがって、チャンネル識別システム1は、ロボット10と判定サーバ20とで時刻情報が一致しない場合、例えばフレームが異なり画像が大きく異なる場合であっても、対応する画像情報が得られる可能性が高まるので、チャンネルの識別精度が向上する。
The
さらに、チャンネル識別システム1は、判定サーバ20において撮像時刻の前後所定範囲の画像情報とマッチングを試みる。したがって、チャンネル識別システム1は、ロボット10と判定サーバ20とで両者が共に正確な時刻情報を持っていない場合にも、対応する画像情報を探索して精度良く放送チャンネルを識別できる。
Further, the
また、チャンネル識別システム1は、ロボット10から画像情報を受信した時刻から、想定される処理時間及び通信時間などを減じることにより、撮像時刻を算出できる。したがって、チャンネル識別システム1は、ロボット10が正確な時刻情報を有していない場合にも、判定サーバ20において対応する画像情報を適切に選択できる。
Further, the
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments. Further, the effects described in the present embodiment merely list the most preferable effects arising from the present invention, and the effects according to the present invention are not limited to those described in the present embodiment.
本実施形態では、制御部13は、ロボット10に搭載された撮像部11(カメラ)の向き及びズームを制御したが、これには限られない。テレビ受像機の全体が写っていない場合、又は形状若しくは大きさが適当でない場合など、ロボット10全体を移動させることで位置を変更して撮像してもよい。
また、制御部13は、テレビ受像機と判定される四角形の領域が検出できない場合、音声の方向に撮像部11を向けて探索してもよい。
さらに、ロボット10は、撮像部11による撮像処理を、音声をトリガーとして開始し、定常時の負荷を低減してもよい。
In the present embodiment, the
Further, when the quadrangular region determined to be the television receiver cannot be detected, the
Further, the
本実施形態では、画像情報として特徴量を用いたが、これには限られず、ロボット10は、例えば検出したテレビ受像機の領域の画像データそのものを送信してもよい。これにより、通信帯域に余裕があり即時性を必要としない場合には、より精度の良い画像マッチングが可能となる。
一方、特徴量を抽出した場合には、送信データ量を削減しつつも、解像度を落として送信する場合に比べて、マッチングによる判定精度を高く保つことが可能となる。
In the present embodiment, the feature amount is used as the image information, but the
On the other hand, when the feature amount is extracted, it is possible to maintain high determination accuracy by matching as compared with the case where the transmission data amount is reduced and the resolution is lowered.
本実施形態では、テレビ受像機を撮像する端末をロボット10として説明したが、これには限られず、例えば、スマートフォン又はタブレット端末などの携帯機器に同様の機能を搭載し、ユーザが外出先で使用してもよい。
この場合、ユーザは、例えば街頭テレビを携帯機器のカメラで撮影し、識別されたチャンネルの放送番組を携帯機器で続けて視聴したり、番組の関連情報を取得したりすることができる。
また、この場合、携帯機器は、テレビ受像機の全体を撮像するために、カメラの向き又はズームなどの調整指示を、画面表示又は音声出力してもよい。
In the present embodiment, the terminal that captures the image of the television receiver has been described as the
In this case, the user can, for example, shoot a street television with a camera of a mobile device, continuously watch a broadcast program of the identified channel on the mobile device, or acquire related information of the program.
Further, in this case, the portable device may display an adjustment instruction such as the direction or zoom of the camera on the screen or output the sound in order to capture the entire image of the television receiver.
チャンネル識別システム1の機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
A program for realizing the function of the
ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。 The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system.
さらに「コンピュータで読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線のように、短時刻の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時刻プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。 Furthermore, a "computer-readable recording medium" is a communication line that transmits a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. It may also include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client in that case. Further, the above-mentioned program may be a program for realizing a part of the above-mentioned functions, and may be a program for realizing the above-mentioned functions in combination with a program already recorded in the computer system. ..
1 チャンネル識別システム
10 ロボット(端末)
11 撮像部
12 検出部
13 制御部
14 抽出部
15 通信部
20 判定サーバ(サーバ)
21 抽出部
22 記憶部
23 判定部
1
11
21
Claims (7)
前記端末は、
撮像部と、
前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出する検出部と、
前記領域のエッジである線分の交点が4個未満であり、前記領域が前記撮像部により撮像された画像の外縁を含む場合、前記テレビ受像機の一部のみが撮像されていると判定し、前記交点が4個となるように前記撮像部の撮像方向を当該外縁の方向へ移動させる第1制御部と、
前記検出部により検出された領域内の画像情報を抽出する抽出部と、
前記画像情報を前記サーバに送信する通信部と、を備え、
前記サーバは、
チャンネル毎の放送映像の画像情報を放送時刻と対応付けて記憶する記憶部と、
前記端末から受信した画像情報を、当該画像情報の撮像時刻に対応する前記記憶部に記憶された画像情報と比較し、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定する判定部と、を備えるチャンネル識別システム。 It has terminals and servers that are connected to each other by communication.
The terminal
Imaging unit and
A detection unit that detects a quadrangular region in which differences of a predetermined value or more are gathered as a region of a television receiver based on the differences between the images captured by the imaging unit.
When there are less than four intersections of line segments that are edges of the region and the region includes the outer edge of the image captured by the imaging unit, it is determined that only a part of the television receiver is imaged. A first control unit that moves the imaging direction of the imaging unit toward the outer edge so that the number of intersections is four .
An extraction unit that extracts image information in the area detected by the detection unit, and an extraction unit.
A communication unit that transmits the image information to the server is provided.
The server
A storage unit that stores image information of broadcast video for each channel in association with the broadcast time,
The image information received from the terminal is compared with the image information stored in the storage unit corresponding to the imaging time of the image information, and the channel selected by the television receiver is determined based on the degree of matching. A channel identification system including a determination unit.
前記記憶部は、前記放送映像の特徴点、及び当該特徴点毎の特徴量を記憶する請求項1に記載のチャンネル識別システム。 The extraction unit extracts the feature points in the region and the feature amount for each feature point as the image information.
The channel identification system according to claim 1, wherein the storage unit stores the feature points of the broadcast video and the feature amount for each feature point.
前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出する検出部と、
前記領域のエッジである線分の交点が4個未満であり、前記領域が前記撮像部により撮像された画像の外縁を含む場合、前記テレビ受像機の一部のみが撮像されていると判定し、前記交点が4個となるように前記撮像部の撮像方向を当該外縁の方向へ移動させる制御部と、
前記検出部により検出された領域内の画像情報を抽出する抽出部と、
前記画像情報をサーバに送信し、当該サーバに記憶されているチャンネル毎の放送映像の画像情報と比較することにより、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定させる通信部と、を備えるチャンネル識別装置。 Imaging unit and
A detection unit that detects a quadrangular region in which differences of a predetermined value or more are gathered as a region of a television receiver based on the differences between the images captured by the imaging unit.
When there are less than four intersections of line segments that are edges of the region and the region includes the outer edge of the image captured by the imaging unit, it is determined that only a part of the television receiver is imaged. , A control unit that moves the imaging direction of the imaging unit toward the outer edge so that the number of intersections is four .
An extraction unit that extracts image information in the area detected by the detection unit, and an extraction unit.
By transmitting the image information to the server and comparing it with the image information of the broadcast video for each channel stored in the server, the channel selected by the television receiver is determined based on the degree of matching. A channel identification device including a communication unit.
前記撮像部により撮像された画像間の差分に基づいて、所定以上の差分が集合している四角形の領域を、テレビ受像機の領域として検出させ、
前記領域のエッジである線分の交点が4個未満であり、前記領域が前記撮像部により撮像された画像の外縁を含む場合、前記交点が4個となるように前記テレビ受像機の一部のみが撮像されていると判定させ、前記撮像部の撮像方向を当該外縁の方向へ移動させ、
検出された領域内の画像情報を抽出させ、
前記画像情報をサーバに送信し、当該サーバに記憶されているチャンネル毎の放送映像の画像情報と比較することにより、マッチング度合いに基づいて、前記テレビ受像機が選局しているチャンネルを判定させるためのチャンネル識別プログラム。 For a computer equipped with an imaging unit
Based on the differences between the images captured by the imaging unit, a quadrangular region in which differences of a predetermined value or more are gathered is detected as a region of the television receiver.
When there are less than four intersections of line segments that are edges of the region and the region includes the outer edge of the image captured by the imaging unit, a part of the television receiver so that the number of intersections is four. It is determined that only the image is captured, and the imaging direction of the imaging unit is moved toward the outer edge.
Extract the image information in the detected area and
By transmitting the image information to the server and comparing it with the image information of the broadcast video for each channel stored in the server, the channel selected by the television receiver is determined based on the degree of matching. Channel identification program for.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016146032A JP6770847B2 (en) | 2016-07-26 | 2016-07-26 | Channel identification systems, devices, methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016146032A JP6770847B2 (en) | 2016-07-26 | 2016-07-26 | Channel identification systems, devices, methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018019156A JP2018019156A (en) | 2018-02-01 |
JP6770847B2 true JP6770847B2 (en) | 2020-10-21 |
Family
ID=61076845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016146032A Active JP6770847B2 (en) | 2016-07-26 | 2016-07-26 | Channel identification systems, devices, methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6770847B2 (en) |
-
2016
- 2016-07-26 JP JP2016146032A patent/JP6770847B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018019156A (en) | 2018-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10580206B2 (en) | Method and apparatus for constructing three-dimensional map | |
US7423669B2 (en) | Monitoring system and setting method for the same | |
Walia et al. | Recent advances on multicue object tracking: a survey | |
US9760791B2 (en) | Method and system for object tracking | |
CN116018616A (en) | Maintaining a fixed size of a target object in a frame | |
CN102792317B (en) | Based on the Image Feature Detection of the application of multiple property detector | |
US9008366B1 (en) | Bio-inspired method of ground object cueing in airborne motion imagery | |
CN107707871B (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
US8842162B2 (en) | Method and system for improving surveillance of PTZ cameras | |
JP6362085B2 (en) | Image recognition system, image recognition method and program | |
JP2007058634A (en) | Image processing method and image processor, digital camera equipment, and recording medium with image processing program stored thereon | |
CN106934351B (en) | Gesture recognition method and device and electronic equipment | |
KR20090087670A (en) | Method and system for extracting the photographing information | |
CN107480580B (en) | Image recognition method and image recognition device | |
KR102297217B1 (en) | Method and apparatus for identifying object and object location equality between images | |
US10163212B2 (en) | Video processing system and method for deformation insensitive tracking of objects in a sequence of image frames | |
CN109714530B (en) | Aerial camera image focusing method | |
CN114298902A (en) | Image alignment method and device, electronic equipment and storage medium | |
CN112291478A (en) | Method, device and equipment for monitoring high-altitude falling object and storage medium | |
González et al. | Single object long-term tracker for smart control of a ptz camera | |
CN111144156A (en) | Image data processing method and related device | |
JP6770847B2 (en) | Channel identification systems, devices, methods and programs | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
JP2016081095A (en) | Subject tracking device, control method thereof, image-capturing device, display device, and program | |
JP6717769B2 (en) | Information processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6770847 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |