JP7058708B1 - Boarding judgment system, setting program, mobile terminal, and management server - Google Patents
Boarding judgment system, setting program, mobile terminal, and management server Download PDFInfo
- Publication number
- JP7058708B1 JP7058708B1 JP2020205099A JP2020205099A JP7058708B1 JP 7058708 B1 JP7058708 B1 JP 7058708B1 JP 2020205099 A JP2020205099 A JP 2020205099A JP 2020205099 A JP2020205099 A JP 2020205099A JP 7058708 B1 JP7058708 B1 JP 7058708B1
- Authority
- JP
- Japan
- Prior art keywords
- mobile terminal
- information
- image
- management server
- shutter speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000035945 sensitivity Effects 0.000 claims abstract description 57
- 230000004044 response Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 54
- 230000008569 process Effects 0.000 description 44
- 238000012545 processing Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 22
- 230000008439 repair process Effects 0.000 description 13
- 102100026339 F-box-like/WD repeat-containing protein TBL1X Human genes 0.000 description 8
- 101000835691 Homo sapiens F-box-like/WD repeat-containing protein TBL1X Proteins 0.000 description 8
- 101000835690 Homo sapiens F-box-like/WD repeat-containing protein TBL1Y Proteins 0.000 description 8
- 230000002950 deficient Effects 0.000 description 7
- 102100032249 Dystonin Human genes 0.000 description 6
- 239000004973 liquid crystal related substance Substances 0.000 description 6
- 101000800590 Homo sapiens Transducin beta-like protein 2 Proteins 0.000 description 5
- 102100033248 Transducin beta-like protein 2 Human genes 0.000 description 5
- 238000012546 transfer Methods 0.000 description 4
- 101100534231 Xenopus laevis src-b gene Proteins 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】利用者が乗車選択した乗り物の選択の正否を、簡易且つ高精度に判定できる乗車判定システムを提供する。【解決手段】 列車情報を提供する情報提供サーバ2から必要な列車情報を取得する携帯端末1と、携帯端末1から撮影画像を文字情報と共に取得する管理サーバ3と、を有し、管理サーバ3は、所定のシャッター速度、携帯端末1で規定されている絞り値、及び、シャッター速度と絞り値に対応して規定されるISO感度の撮影条件で撮影された撮影画像を受けて、その撮影画像が、文字情報との関係で適切か否かの判定結果を返信する。【選択図】図4PROBLEM TO BE SOLVED: To provide a boarding determination system capable of simply and highly accurately determining the correctness of selection of a vehicle selected by a user. SOLUTION: The management server 3 has a mobile terminal 1 for acquiring necessary train information from an information providing server 2 for providing train information, and a management server 3 for acquiring a photographed image together with text information from the mobile terminal 1. Receives a photographed image taken under a predetermined shutter speed, an aperture value specified by the mobile terminal 1, and shooting conditions of ISO sensitivity specified corresponding to the shutter speed and the aperture value, and the photographed image thereof. Returns the judgment result of whether or not it is appropriate in relation to the character information. [Selection diagram] FIG. 4
Description
本発明は、乗車しようとしている乗り物が、正しいか否かを、簡易、且つ確実に判定できる乗車判定システムに関し、特に、旅行客に対して好適に機能する。 The present invention relates to a boarding determination system that can easily and surely determine whether or not the vehicle to be boarded is correct, and is particularly suitable for tourists.
現地の地理に明るくない観光客にとって、乗車すべき列車やバスを正確に把握することは容易でなく、特に、外国人観光客にとっては、その困難が顕著である。そこで、鉄道駅員などの係員は、観光客から頻繁に質問を受けることになるが、労働力の不足が問題視される中で、このまま、人による対応を続けた場合、サービスレベルを維持するのが難しくなるおそれがある。 It is not easy for tourists who are not familiar with the local geography to know exactly which train or bus to board, and especially for foreign tourists, the difficulty is remarkable. Therefore, staff members such as railway station staff are frequently asked questions by tourists, but if the labor shortage is regarded as a problem and people continue to respond as it is, the service level will be maintained. May be difficult.
そこで、かかる点を考慮して、携帯端末のカメラで撮影した車両や案内表示板の画像を判定して、携帯端末に適切な情報を返信するシステムも提案されている(特許文献1~特許文献2)。
Therefore, in consideration of this point, a system has been proposed in which an image of a vehicle or a guide display board taken by a camera of a mobile terminal is determined and appropriate information is returned to the mobile terminal (
例えば、特許文献1には、「(端末装置から受けた経路探索条件を満たす、出発地から目的地までの案内経路を探索して)案内経路(データ)を取得する第1手段と、撮影部を制御して交通機関の乗車案内表示物の撮影画像を取得する第2手段と、上記撮影画像中の表示内容を抽出する第3手段と、上記案内経路と、上記表示内容から特定された路線、駅名および進行方向のうち少なくとも1つと、に基づいて、上記路線が適切であるか否かなどを含む案内情報を生成する第4手段と、上記案内情報を出力する第5手段と、を備えた情報処理システム」が開示されている。
For example,
この特許文献1に記載の構成では、案内経路を取得することが必須要件となっているが、第1手段や第4手段を実現することが、現実的には容易でない。この点を、具体的に確認すると、先ず、利用者は、端末装置を操作して出発地と目的地とを含む経路探索条件を、ナビゲーションサーバへ送信する煩雑な処理が必要となる。
In the configuration described in
しかも、ナビゲーションサーバでは、経路探索条件を満たす出発地から目的地までの案内経路を、交通網データベースから探索して、案内経路データを生成する必要があり、この処理も、ナビゲーションサーバにとって大きな処理負担となる。 Moreover, the navigation server needs to search the guidance route from the departure point to the destination that satisfies the route search condition from the transportation network database and generate the guidance route data, and this processing also has a large processing burden on the navigation server. It becomes.
かかる点を考慮すると、利用者の処理負担が少なく、且つ、サーバ側の処理負担も軽いシステムの完成が望まれるところである。特に、携帯端末の内蔵カメラを最適に動作させることができるシステムの完成が望まれる。 Considering this point, it is desired to complete a system in which the processing load on the user side is small and the processing load on the server side is also light. In particular, it is desired to complete a system that can optimally operate the built-in camera of the mobile terminal.
本発明は、上記の課題に鑑みてなされたものであって、携帯端末の内蔵カメラを最適に動作させることで、利用者が乗車選択した乗り物の選択の正否を、簡易且つ高精度に判定できる乗車判定システムを提供することを目的とする。 The present invention has been made in view of the above problems, and by optimally operating the built-in camera of the mobile terminal, it is possible to easily and highly accurately determine whether or not the vehicle selected by the user has been selected. The purpose is to provide a boarding determination system.
上記の目的を達成するため、請求項1に係る乗車判定システムは、交通機関の交通情報を提供する情報提供サーバと、前記情報提供サーバから必要な交通情報を取得可能に構成された携帯端末と、前記携帯端末から、交通情報に関する撮影画像と、これに対応する文字情報を取得可能に構成された管理サーバと、を有して構成され、前記管理サーバは、所定のシャッター速度、前記携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件で撮影された撮影画像を受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている。
In order to achieve the above object, the boarding determination system according to
また、請求項2に係る乗車判定システムは、交通機関の交通情報を提供する情報提供サーバと、前記情報提供サーバから必要な交通情報を取得可能に構成された携帯端末と、前記携帯端末から、交通情報に関する撮影画像と、これに対応する文字情報を取得可能に構成された管理サーバと、を有して構成され、前記管理サーバは、連写撮影された複数枚の撮影画像か、動画撮影された動画フレームの撮影画像を受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている。
Further, the boarding determination system according to
上記した何れの発明でも、交通情報に関する撮影画像が、これに対応する文字情報と共に、携帯端末から送信されるので、管理サーバは、撮影画像と文字情報の整合性を判定するだけでよく、制御負担が大幅に軽減される。すなわち、管理サーバは、与えられた条件(経路探索条件)を満たす出発地から目的地までの案内経路を探索する必要は全くない。 In any of the above inventions, since the photographed image related to the traffic information is transmitted from the mobile terminal together with the corresponding character information, the management server only needs to determine the consistency between the photographed image and the character information, and controls the image. The burden is greatly reduced. That is, the management server does not need to search for a guide route from the departure point to the destination that satisfies the given condition (route search condition).
また、管理サーバは、撮影画像と共に、これに対応する文字情報を携帯端末から受けるので、文字認識処理を経ることなく、撮影画像と文字情報だけで、利用者が乗車選択した乗り物の選択の正否情報を返信することができる。 In addition, since the management server receives the character information corresponding to the photographed image from the mobile terminal together with the photographed image, the correctness or rejection of the vehicle selection selected by the user based only on the photographed image and the character information without going through the character recognition process. Information can be returned.
一方、本発明は、所定のシャッター速度、携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件を請求項1に記載の携帯端末に設定するための設定プログラム、又は、前記設定プログラムがインストールされた携帯端末でもある。
On the other hand, according to
また、本発明は、所定のシャッター速度、携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件で撮影された撮影画像を、これに対応する文字情報と共に、前記携帯端末から受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている管理サーバでもある。 Further, the present invention is a photographed image taken under a predetermined shutter speed, an aperture value specified by a mobile terminal, and a shooting condition of a predetermined ISO sensitivity specified corresponding to the shutter speed and the aperture value. Is received from the mobile terminal together with the corresponding character information, and the determination result of whether or not the captured image is appropriate in relation to the character information is returned to the mobile terminal. It is also a server.
上記の発明を利用することで、携帯端末を最適条件で動作させることができ、管理サーバの判定精度を上げることができる。 By using the above invention, the mobile terminal can be operated under the optimum conditions, and the determination accuracy of the management server can be improved.
交通機関には、少なくとも、列車、バス、飛行機、船、及びタクシーが含まれる。情報提供サーバは、管理サーバと同一ドメインでも良いし、異なるドメインでもよい。 Transportation includes at least trains, buses, planes, ships, and taxis. The information providing server may be in the same domain as the management server, or may be in a different domain.
画像撮影データは、静止画であっても、動画であっても良い。画像撮影データは、典型的には、列車などの交通機関の側面プレート(行先表示器)を撮影したデータである。但し、駅ホーム(Platform)などに配置された列車案内表示板を撮影したものでもよい。 The image capture data may be a still image or a moving image. The imaging data is typically data obtained by photographing a side plate (destination indicator) of a transportation system such as a train. However, it may be a photograph of a train information display board placed on a station platform (Platform) or the like.
本発明によれば、携帯端末の内蔵カメラを最適に動作させることで、利用者が乗車選択した乗り物の選択の正否を、簡易且つ高精度に判定することができる。 According to the present invention, by optimally operating the built-in camera of the mobile terminal, it is possible to easily and highly accurately determine whether or not the vehicle selected by the user has been selected.
以下、実施例に基づいて、本発明を詳細に説明する。先ず、携帯端末の内蔵カメラを最適に動作させる撮影条件を特定するべく実施した撮影調査と、この調査結果から得られた最適撮影条件について説明する。
<最適撮影条件の特定>
Hereinafter, the present invention will be described in detail based on examples. First, a shooting survey conducted to specify the shooting conditions for optimally operating the built-in camera of the mobile terminal and the optimum shooting conditions obtained from the survey results will be described.
<Specification of optimum shooting conditions>
本発明者は、駅ホームに設置された列車案内表示板と、列車側面の行先表示器をカメラで正確に撮影できる撮影条件を検討した。なお、列車側面の行先表示器には、文字がシートに印刷されている「字幕タイプ」のものと、LED表示器を使用する「LEDタイプ」のものとが存在する。また、列車案内表示板としては、液晶表示器を使用する「液晶タイプ」のものが一般的である。 The present inventor examined the shooting conditions under which the train guide display board installed on the station platform and the destination display on the side of the train can be accurately photographed by the camera. There are two types of destination indicators on the side of the train, one is a "subtitle type" in which characters are printed on a sheet, and the other is an "LED type" in which an LED indicator is used. Further, as the train guide display board, a "liquid crystal type" using a liquid crystal display is generally used.
また、スマートフォンなどの携帯端末の内蔵カメラを使用して、列車案内表示板や行先表示器を正確に撮影できるか否かは、カメラのレンズを通過してくる光の総量や、画像そのものの明るさに関連し、これらは、レンズの絞り値と、露光時間と、フィルム感度(実際には撮像素子の感度)と、の組み合わせによって決まる。
[調査検討1(シャッター速度について)]
In addition, whether or not the train information display board and destination display can be accurately photographed using the built-in camera of a mobile terminal such as a smartphone depends on the total amount of light passing through the camera lens and the brightness of the image itself. In relation to this, these are determined by the combination of the aperture value of the lens, the exposure time, and the film sensitivity (actually, the sensitivity of the image pickup element).
[Survey Study 1 (Shutter speed)]
そこで、先ず、最適なシャッター速度について検討した。ここで、シャッター速度とは、カメラによる写真撮影の際に、シャッターが開放され、フィルムまたは撮像素子が、レンズを通した光に晒される時間(露光時間)を意味し、露光時間が短いほどシャッター速度が速く、露光時間が長いほどシャッター速度が遅い関係にある。 Therefore, first, the optimum shutter speed was examined. Here, the shutter speed means the time (exposure time) in which the shutter is opened and the film or image pickup element is exposed to the light passing through the lens when taking a picture with a camera. The shorter the exposure time, the more the shutter. The faster the speed and the longer the exposure time, the slower the shutter speed.
このシャッター速度の調査では、携帯端末の内蔵カメラについて、(1) 手ぶれ補正機能=OFF設定、(2) 絞り値=自動設定、(3) ISO感度=自動設定にして、各駅において、シャッター速度を、1/4000秒、1/1000秒、1/400秒、1/125秒、1/5秒、その他に多様に変更しつつ、多数の画像を撮影し、撮影画像が適切か否かを目視判定した。 In this shutter speed survey, for the built-in camera of the mobile terminal, (1) image stabilization function = OFF setting, (2) aperture value = automatic setting, (3) ISO sensitivity = automatic setting, and the shutter speed was set at each station. , 1/4000 seconds, 1/1000 seconds, 1/400 seconds, 1/125 seconds, 1/5 seconds, etc., while taking a large number of images and visually checking whether the shot images are appropriate or not. Judged.
撮影画像の適切性は、撮影画像の明るい/暗いは問題にせず、コンピュータによる画像認識が可能か否かの観点で判定し、文字が途切れないことを最優先の条件とした。これは、LEDタイプの行先表示器は、いわゆるダイナミック点灯方式を採っている場合が多く、シャッター速度が速すぎると、途切れた文字しか撮影できないためである。また、「液晶タイプ」の列車案内表示板も、全ての画素が同時に点灯される訳ではなく、文字の途切れが懸念されるためである。 The appropriateness of the captured image was judged from the viewpoint of whether or not the image recognition by the computer was possible, regardless of whether the captured image was bright or dark, and the highest priority condition was that the characters were not interrupted. This is because LED-type destination indicators often employ a so-called dynamic lighting method, and if the shutter speed is too fast, only interrupted characters can be photographed. In addition, not all pixels of the "liquid crystal type" train guide display board are lit at the same time, and there is a concern that characters may be interrupted.
先ず、図1(a)に示す通り、「字幕タイプ」の行先表示器の調査結果では、シャッター速度1/5秒の場合に、手振れが生じたものの、シャッター速度に関係なく撮影可能と結論された。 First, as shown in FIG. 1 (a), according to the survey results of the "subtitle type" destination display, it was concluded that shooting was possible regardless of the shutter speed, although camera shake occurred when the shutter speed was 1/5 second. rice field.
次に、図1(b)に示す通り、「液晶タイプ」の列車案内表示板については、1/5秒と1/20秒における手ぶれ以外は撮影に成功した。したがって、「液晶タイプ」の列車案内表示板についても、シャッター速度に関係なく撮影が可能と結論される。 Next, as shown in FIG. 1 (b), the "liquid crystal type" train guide display board was successfully photographed except for camera shake at 1/5 second and 1/20 second. Therefore, it can be concluded that even the "liquid crystal type" train guide display board can be photographed regardless of the shutter speed.
「LEDタイプ」の行先表示器は、ダイナミック点灯の動作態様が必ずしも一定しない。そのため、シャッター速度1/160秒でも文字が途切れる場合があるが、シャッター速度1/1000秒より速いと殆ど正確に撮影できなかった(図1(c)参照)。一方、シャッター速度が遅すぎると手ぶれの心配があるので、一枚も失敗が無かった1/40~1/125秒が最適と結論される。 In the "LED type" destination indicator, the operation mode of dynamic lighting is not always constant. Therefore, characters may be interrupted even at a shutter speed of 1/160 second, but if the shutter speed is faster than 1/1000 second, it was almost impossible to shoot accurately (see FIG. 1 (c)). On the other hand, if the shutter speed is too slow, there is a risk of camera shake, so it is concluded that 1/40 to 1/125 seconds, when there was no failure, is optimal.
以上の通り、(1) 字幕タイプの場合は、シャッター速度が1/5秒より速ければ問題が無いこと、(2) 液晶タイプの場合は、1/40秒よりシャッター速度が速ければ問題が無いこと、(3) LEDタイプの場合は、シャッター速度1/40~1/125秒であれば問題が無いこと、が明らかとなった。そこで、本発明者は、シャッター速度1/40~1/125秒が好適な数値範囲であると結論した。
[調査検討2(明るさ調査)]
As described above, (1) in the case of the subtitle type, there is no problem if the shutter speed is faster than 1/5 second, and (2) in the case of the liquid crystal type, there is no problem if the shutter speed is faster than 1/40 second. It was clarified that (3) in the case of the LED type, there is no problem if the shutter speed is 1/40 to 1/125 seconds. Therefore, the present inventor has concluded that a shutter speed of 1/40 to 1/125 second is a suitable numerical range.
[Survey Study 2 (Brightness Survey)]
続いて、正しい明るさで撮影できる設定値を導くべく、明るさについて調査検討した。なお、明るさには、シャッター速度と、ISO感度と、絞り値の全てが関係する。 Then, in order to derive the setting value that can be taken with the correct brightness, the brightness was investigated and examined. The brightness is related to the shutter speed, the ISO sensitivity, and the aperture value.
先ず、ISO感度は、写真フィルム(携帯端末では撮像素子)のISO規格(International Organization for Standardization)であって、ある撮像素子が、どの程度弱い光まで対応できるかを示している。例えば、ISO感度200の撮像素子は、受光能力が、ISO感度100の2倍あるため、ISO感度100の半分の強さの光まで対応できることになる。
First, ISO sensitivity is an ISO standard (International Organization for Standardization) for photographic film (an image sensor in a mobile terminal), and indicates how weak a certain image sensor can handle light. For example, an image sensor with an ISO sensitivity of 200 has a light receiving capacity twice that of
このISO感度は、対数表記I’又は算術表記Iされるが、対数表記I’と、算術表記Iとの間には、I=10(I’-1)/10・・・(式1)や、I’=10Log10I+1・・・(式2)の近似式が成立する。(式1)では、算術表記Iが、最も近い値の標準的感度に丸められ、(式2)では、対数表記I’が四捨五入によって整数化される。 This ISO sensitivity is expressed in logarithmic notation I'or arithmetic notation I, but between the logarithmic notation I'and the arithmetic notation I, I = 10 (I'-1) / 10 ... (Equation 1). Or, an approximate expression of I'= 10Log 10 I + 1 ... (Equation 2) is established. In (Equation 1), the arithmetic notation I is rounded to the standard sensitivity of the closest value, and in (Equation 2), the logarithmic notation I'is rounded to an integer.
したがって、例えば、ISO感度20(算術表記I=20)は、対数表記では、I’=10Log1020+1≒14となる。つまり、ISO感度(算術表記)20は、対数表記では14であって、20≒101.3の関係が成立する。 Therefore, for example, the ISO sensitivity 20 (arithmetic notation I = 20) is I'= 10Log 10 20 + 1≈14 in logarithmic notation. That is, the ISO sensitivity (arithmetic notation) 20 is 14 in logarithmic notation, and the relationship of 20≈10 1.3 is established.
また、絞り値Fは、レンズの焦点距離と、有効口径(直径)とに基づいて、絞り値F=焦点距離/有効口径(直径)・・・(式3)と特定される。したがって、同じレンズでは、絞り値が小さいほど撮影画像が明るくなり、例えば、絞り値2.0は、絞り値4.0より4倍明るいことになる。 Further, the aperture value F is specified as aperture value F = focal length / effective aperture (diameter) ... (Equation 3) based on the focal length of the lens and the effective aperture (diameter). Therefore, with the same lens, the smaller the aperture value, the brighter the captured image. For example, the aperture value of 2.0 is four times brighter than the aperture value of 4.0.
以上を踏まえて、調査2では、(1) シャッター速度=1/125秒、(2) 絞り値=2.2、(3) 手ぶれ補正=OFF設定の条件で、ISO感度を、100,200,400,800,1600,3200,4000,8000に変化させて、設置環境が異なる複数の駅で、列車案内表示板や行先表示器を撮影した画像について、その明るさの適否を判定した。
Based on the above, in
図2(a)は、照度440~920ルクスの地下駅1について、ISO感度を変えて列車案内表示板や、行先表示器を撮影した多数の撮影サンプルを評価して、適正割合の%表記を示したものである。
In FIG. 2 (a), for the
ISO感度1600を超えると明る過ぎて半分以上が失敗と評価され、一方、ISO感度を100まで下げると暗すぎて3割ほど失敗することが判明した。したがって、この地下駅1では、ISO感度200~400が適切と考えられる。
It was found that when the ISO sensitivity exceeds 1600, it is too bright and more than half are evaluated as failures, while when the ISO sensitivity is lowered to 100, it is too dark and fails by about 30%. Therefore, at this
図2(b)は、照度590~1130ルクスの地上駅2についての調査結果である。ISO感度が800を超えると半分以上が失敗と評価され、ISO感度が低ければ低いほど、撮影成功率が高いことが判明した。なお、ISO感度200、400の失敗は、回送電車を撮影したためであり無視することができる。したがって、地上駅2では、ISO感度100~400が適切と考えられる。
FIG. 2B is a survey result of the
図2(c)は、照度140~1900ルクスの地上駅3についての調査結果である。この地上駅3では、ISO感度200~400が適切であると評価される。
FIG. 2C shows the survey results for the
図3(a)は、照度600~1060ルクスの地上駅4についての調査結果である。この調査結果によれば、地上駅4では、ISO感度100~200での撮影が適切であると評価される。
FIG. 3A is a survey result of the
図3(b)は、照度280~5500ルクスの地上駅5についての調査結果である。地上駅5では、ISO感度が低ければ低い程、撮影成功率が高いことが確認される。そして、ISO感度800を超えると半分以上失敗するので、ISO感度100~200での撮影が適切であると評価される。
FIG. 3B is a survey result of the
図3(c)は、照度5万~20万ルクスの地上駅6についての調査結果である。地上駅6は、直射日光を受けて、目を開けているのも辛い明るさであり、ISO感度80まで下げても高い確率で失敗する。絞り値を4以上に設定すれば、直射日光下でも撮影は可能であるが、好適なシャッター速度(1/40~1/125秒)を考慮すると、シャッター速度を1/125秒より速くできないという条件下では、携帯端末でここまで暗く設定することはできない。
FIG. 3C shows the survey results for the
以上の通り、絞り値=2.2、シャッター速度=1/125秒の条件において、(1) 地下駅1では、ISO感度200~400が適切であること、(2) 地上駅2では、ISO感度100~400が適切であること、(3) 地上駅3では、ISO感度200~400が適切であること、(4) 地上駅4では、ISO感度100~200が適切であること、(5) 地上駅5では、ISO感度100~200が適切であること、(6) 地上駅6では、携帯端末での撮影は難しいこと、が明らかなとなった。そこで、本発明者は、撮影時には直射日光を避けるという条件付きで、ISO感度200が望ましいと結論した。
As described above, under the conditions of aperture value = 2.2 and shutter speed = 1/125 second, (1) ISO sensitivity of 200 to 400 is appropriate for
但し、上記の結論は、あくまで絞り値が2.2の場合であり、携帯端末によって絞り値が異なる。しかも、この絞り値は、一般に、自由に変更することはできない。そこで、この制限を踏まえて、どんな携帯端末でも、適切な条件で動作する構成を特定する必要がある。 However, the above conclusion is only for the case where the aperture value is 2.2, and the aperture value differs depending on the mobile terminal. Moreover, this aperture value is generally not freely changeable. Therefore, based on this limitation, it is necessary to specify a configuration that operates under appropriate conditions on any mobile terminal.
そこで、更に検討した結果、本発明者は、三つのパラメータである(1) シャッター速度、(2) ISO感度、及び、(3) 絞り値は、互いに影響し合い、一つ正しい設定値を見つければ、どの数値を変えても他の数値で補完することができることに思い至った。すなわち、(1) シャッター速度は、シャッターが開放され撮像素子が、レンズを通した光に晒される時間(露光時間)であるので、シャッター速度Sが遅くなればなるほど、撮影画像が明るくなり、例えば、シャッター速度S=1/500秒は、S=1/1000秒よりも2倍明るいと言える。 Therefore, as a result of further studies, the present inventor can find one correct setting value because the three parameters (1) shutter speed, (2) ISO sensitivity, and (3) aperture value affect each other. For example, I came up with the idea that any value can be changed and supplemented with other values. That is, (1) the shutter speed is the time (exposure time) when the shutter is opened and the image pickup element is exposed to the light passing through the lens. Therefore, the slower the shutter speed S, the brighter the captured image, for example. It can be said that the shutter speed S = 1/500 second is twice as bright as S = 1/1000 second.
(2) ISO感度は、撮像素子がどの程度弱い光まで対応できるかのパラメータであり、ISO感度が大きいほど、撮影画像が明るくなり、例えば、ISO感度1000は、ISO感度500よりも2倍明るいと言える。 (2) The ISO sensitivity is a parameter of how weak the light can be handled by the image sensor. The larger the ISO sensitivity, the brighter the captured image. For example, the ISO sensitivity 1000 is twice as bright as the ISO sensitivity 500. It can be said that.
(3) また、絞り値F=焦点距離/有効口径(直径)・・・(式3)より、絞り値は、その数値(有効口径)が小さいほど、撮影画像が明るくなり、例えば、絞り値2.0は絞り値4.0より4倍明るいと言える。 (3) From the aperture value F = focal length / effective aperture (diameter) ... (Equation 3), the smaller the value (effective aperture) of the aperture value, the brighter the captured image, for example, the aperture value. It can be said that 2.0 is four times brighter than the aperture value of 4.0.
これら、(1) シャッター速度Sと、(2) ISO感度Iと、(3) 絞り値Fによれば、下記の(式4)が成立するように、シャッター速度Sと、ISO感度Iと、絞り値Fの各値を調整することで、一定の明るさを保つことができると考えられる。
S×I/F2=一定・・・(式4)
そして、先の調査結果の最適値(S=1/125,I=200,F=2.2)より、(式4)の一定値は、最適条件において、ほぼ0.33(≒1/125×200/2.22)であると特定される。
According to these (1) shutter speed S, (2) ISO sensitivity I, and (3) aperture value F, the shutter speed S, ISO sensitivity I, and so on so that the following (Equation 4) holds. It is considered that a constant brightness can be maintained by adjusting each value of the aperture value F.
S × I / F 2 = constant ... (Equation 4)
Then, from the optimum values (S = 1/125, I = 200, F = 2.2) of the previous survey results, the constant value of (Equation 4) is approximately 0.33 (≈1/125) under the optimum conditions. × 200 / 2.2 2 ) is specified.
すなわち、(式4)の算出値が0.33となるよう、(1) シャッター速度Sと、(2) ISO感度Iと、(3) 絞り値Fについて、各値を設定すれば、どの携帯端末でも正しい明るさで行先表示器や列車案内表示板を撮影することができることになる。 That is, if the values of (1) shutter speed S, (2) ISO sensitivity I, and (3) aperture value F are set so that the calculated value of (Equation 4) is 0.33, which mobile phone is used. Even with the terminal, it will be possible to take pictures of the destination display and train information display board with the correct brightness.
一般に、携帯端末は、カメラレンズの絞り値Fが固定値である。また、調査の結果、ある程度暗めの撮影が求められることから、シャッター速度は最適範囲(1/40~1/125秒)のうち最速の1/125秒に固定し、携帯端末の絞り値Fに応じて、ISO感度Iを、(式4)に基づいて算出し、そのISO感度に調整するのが望ましいと結論した。 Generally, in a mobile terminal, the aperture value F of the camera lens is a fixed value. In addition, as a result of the investigation, since shooting darker to some extent is required, the shutter speed is fixed at 1/125 second, which is the fastest in the optimum range (1/40 to 1/125 second), and the aperture value F of the mobile terminal is set. Therefore, it was concluded that it is desirable to calculate the ISO sensitivity I based on (Equation 4) and adjust it to the ISO sensitivity.
すなわち、以下に説明する実施例では、使用する携帯端末のカメラレンズの絞り値Fに基づき、ISO感度Iを、I=0.33×F2×125・・・(式5)に設定して行先表示器や列車案内表示板を撮影することにする。 That is, in the embodiment described below, the ISO sensitivity I is set to I = 0.33 × F 2 × 125 ... (Equation 5) based on the aperture value F of the camera lens of the mobile terminal to be used. I decided to take a picture of the destination display and the train information display board.
但し、(式5)を、そのまま使用すると、F=2.0の場合に、I=165となり、F=2.2の場合に、I=199.65となるなど、採用可能なISO感度に完全には一致しない。そこで、予め、決定テーブルCNVを用意しておき、例えば、F=2.0の場合に160を採用し、F=2.2の場合にISO感度200を採用するよう構成している。
However, if (Equation 5) is used as it is, I = 165 when F = 2.0, I = 199.65 when F = 2.2, and so on. Not an exact match. Therefore, a determination table CNV is prepared in advance, and for example, 160 is adopted when F = 2.0, and
<乗車判定システム>
図4は、携帯端末の内蔵カメラを、上記した最適撮影条件で動作させる乗車判定システムを示すブロック図である。なお、ここでは、一例として、地理に不案内な旅行者(システム利用者)が、目的駅に行くために乗車選択した列車の選択が、正しいか否かを判定する場合について説明する。
<Ride judgment system>
FIG. 4 is a block diagram showing a boarding determination system for operating the built-in camera of the mobile terminal under the above-mentioned optimum shooting conditions. Here, as an example, a case where a traveler (system user) who is unfamiliar with geography determines whether or not the selection of the train selected for boarding to go to the destination station is correct will be described.
一般に、駅ホームに設置された列車案内表示板は、その駅ホームからの発車時刻と、発車予定の列車の種別と、行先駅(終着駅又は乗換駅)とを表示している。また、列車側面の行先表示器には、列車の種別と、行先駅(終着駅又は乗換駅)とが一般に表示されている。 Generally, a train information display board installed on a station platform displays the departure time from the station platform, the type of train scheduled to depart, and the destination station (terminal station or transfer station). In addition, the type of train and the destination station (terminal station or transfer station) are generally displayed on the destination indicator on the side of the train.
ここで、種別とは、全ての列車を、普通/準急/急行/快速急行/特急などに区分する情報であり、行先駅への到着時刻の優劣関係や、途中停車駅の違いなどを特定している。 Here, the type is information that classifies all trains into normal / semi-express / express / rapid express / limited express, etc., and specifies the superiority / inferiority relationship of arrival time at the destination station, the difference in the stop station on the way, and the like. ing.
図4に示す通り、実施例の乗車判定システムは、カメラ付きの携帯端末1と、目的駅に到着するために必要な列車情報を提供する列車情報提供サーバ2と、所定の文字情報と画像情報を携帯端末1から受ける共に、画像認識サーバ4から受ける情報に基づいて、利用者による列車選択の適否を携帯端末1に返信する管理サーバ3と、管理サーバ3から転送される画像情報を、登録済みの画像情報を比較して、必要な判定情報を返信する画像認識サーバ4と、を有して構成されている。
As shown in FIG. 4, the boarding determination system of the embodiment includes a
列車情報提供サーバ2と、管理サーバ3と、画像認識サーバ4は、各々、インターネット回線NETに接続されたHTTPサーバである。また、携帯端末1は、内蔵カメラを有すると共に、移動体通信回線MOBを経由して、インターネット回線NET上のWEBページを取得するブラウザが搭載されている。
The train
また、携帯端末1には、内蔵ブラウザと協働して、以下に説明する処理を実行する乗車判定アプリ(アプリ名はJUDG)が、決定テーブルCNV(表1)と共に、予めインストールされている。
Further, a boarding determination application (application name is JUDG) that executes the process described below in cooperation with the built-in browser is pre-installed on the
この乗車判定アプリJUDGは、Webページに記載された所定ボタンを、利用者がタップすると起動するよう構成されている。但し、何ら、この構成に限定されず、乗車判定アプリ自体がブラウザ機能を発揮して、アプリ内でWebページを表示して、利用者の操作を待つ構成を採っても良い。 This boarding determination application JUDG is configured to be activated when the user taps a predetermined button described on the Web page. However, the configuration is not limited to this, and the boarding determination application itself may exhibit a browser function, display a Web page in the application, and wait for the user's operation.
何れの構成を採る場合でも、乗車判定アプリJUDGの起動時に実行される初期設定処理によって、内蔵カメラのシャッター速度Sが、1/125秒に設定されると共に、当該携帯端末1の絞り値Fに対応するISO感度Iが、表1に示す決定テーブルCNVに基づく最適値に設定される。
Regardless of which configuration is adopted, the shutter speed S of the built-in camera is set to 1/125 second by the initial setting process executed when the boarding determination application JUDG is started, and the aperture value F of the
また、列車情報提供サーバ2は、携帯端末1(WEBクライアント)からの指示に基づき、任意の出発駅と目的駅に関して、発車時刻などの列車情報などを掲載したWEBページ(図5参照)を配信するよう構成されている。
In addition, the train
図5に示すように、このWebページには、出発駅(〇〇)から到着駅(××)に移動する列車種別(図示例は特急)と、出発時間及び到着時刻が、運賃などと共に掲載されている。また、このWebページには、「行先判定ボタン」が配置されており、このボタンを利用者がタップすると、インストール済みの乗車判定アプリJUDGが起動するよう構成されている。 As shown in Fig. 5, this Web page shows the train type (express in the figure) that moves from the departure station (○○) to the arrival station (XX), as well as the departure time and arrival time, along with the fare and other information. Has been done. In addition, a "destination determination button" is arranged on this Web page, and when the user taps this button, the installed boarding determination application JUDG is activated.
このWebページは、具体的には、例えば、URLスキームが活用され、anchorタグのスキーム名の部分に、通信プロトコルを特定するhttpに代えて、アプリ名(JUDG)を指定することで、インストール済みのアプリJUDGが実行可能となっている。すなわち、このWebページには、例えば、<a href = "JUDG://">行先判定</a>のようなanchorタグが記載されている。 Specifically, for example, the URL scheme is used for this Web page, and the application name (JUDG) is specified in the scheme name part of the anchor tag instead of http that specifies the communication protocol. App JUDG can be executed. That is, an anchor tag such as <a href = "JUDG: //"> destination determination </a> is described in this Web page.
そして、利用者のタップ操作に対応して、乗車判定アプリJUDGが起動すると、内蔵カメラが起動すると共に、シャッター速度Sが1/125秒に設定され、当該携帯端末1の絞り値Fに対応する最適なISO感度Iが設定される。
Then, when the boarding determination application JUDG is activated in response to the user's tap operation, the built-in camera is activated and the shutter speed S is set to 1/125 second, which corresponds to the aperture value F of the
次に、「乗車しようとする列車について、その列車側面の行先表示器か、列車案内表示板を撮影して下さい。」との案内画面が立ち上がる。そのため、利用者は、内蔵カメラを、列車側面の行先表示器か、駅ホームの列車案内表示板に向けた後、シャッターを切ることになる。 Next, a guidance screen will appear stating, "For the train you are about to board, please take a picture of the destination indicator on the side of the train or the train information display board." Therefore, the user has to release the shutter after pointing the built-in camera at the destination display on the side of the train or the train information display board on the station platform.
また、このWebページには、hidden属性のinput タグに、行先駅と、列車種別(普通/準急/急行/快速急行/特急)と、出発駅と、発車時刻と、が隠しデータとして記載されている。更に、このWebページには、シャッター操作などに基づき機能するJavaScriptプログラムが記載されており、行先駅と列車種別と出発駅と発車時刻とは、内蔵カメラが撮影した撮影データと共に、例えばPOSTデータとして、管理サーバ3に送信されるようになっている。
In addition, on this Web page, the destination station, train type (normal / semi-express / express / rapid express / limited express), departure station, and departure time are described as hidden data in the input tag of the hidden attribute. There is. Furthermore, this Web page describes a JavaScript program that functions based on shutter operations, etc., and the destination station, train type, departure station, and departure time are, for example, POST data together with the shooting data taken by the built-in camera. , Is sent to the
具体的な手法は、適宜であるが、HTML5(Hyper Text Markup Language version5 )では、携帯端末1の内蔵カメラの機能をJavaScriptから直接利用できるので、シャッターを切った瞬間の画像を、Webページの適当なタグ(例えばcanvasタグ)に貼り付け、他の情報と共に、管理サーバ3に向けてPOST送信すれば良い。
The specific method is appropriate, but in HTML5 (Hyper Text Markup Language version 5), the function of the built-in camera of the
以上、携帯端末1の内蔵ブラウザが、列車情報提供サーバ2をアクセスする構成について説明した。このような構成を採る場合には、大部分の処理がJavaScriptによって実行可能であるので、乗車判定アプリJUDGは、内蔵カメラの撮影条件を最適設定し、その後の操作を案内する処理だけを実行すれば足りることになる。
The configuration in which the built-in browser of the
但し、列車情報提供サーバ2は、上記したJavaScriptプログラムを記載したWebページであって、且つ、アプリ名JUDGを記載したanchorタグで構成された「行先判定ボタン」を用意する必要がある。そこで、この煩雑さを解消するには、乗車判定アプリ自体にブラウザ機能を持たせ、乗車判定アプリJUDGが、列車情報提供サーバ2を直接アクセスする構成を採るのが好ましい。
However, the train
このような後者の構成を採る場合には、列車情報提供サーバ2が、特別なWebページを用意する必要がなくなり、スキーム名をhttpとする通常のanchorタグを埋め込んだ「行先判定ボタン」を配置し、行先駅と列車種別と出発駅と発車時刻とを、例えばhidden属性で記載したWebページを配信することになる。この場合、乗車判定アプリJUDGは、初期設定処理だけでなく、利用者による「行先判定ボタン」のタップ操作に対応して、上記した一連の処理を全て実行することになる。
When adopting the latter configuration like this, the train
続いて、管理サーバ3について説明する。管理サーバ3は、原則として、乗車判定アプリJUDGが搭載された携帯端末1との交信を予定しており、携帯端末1から受けた情報(行先駅/列車種別/出発駅/発車時刻/撮影データ)を、適宜な作業領域WORKに一時記憶すると共に、撮影データについては、これを画像認識サーバ4に転送するよう構成されている。
Subsequently, the
この管理サーバ3の構成に対応して、画像認識サーバ4は、撮影データの受信に対応して画像認識プログラムRECOG が起動するよう構成されている。この画像認識プログラムRECOG は、転送されてきた撮影データから複数の特徴量を注出する注出アルゴリズムを有して構成されている。
Corresponding to the configuration of the
また、画像認識サーバ4は、本システムで転送されてくる可能性がある全ての行先表示器と、全ての案内表示板についての模範的な撮影データ(模範撮影データ)を予め受けている。そして、画像認識プログラムRECOG は、全ての模範撮影データから、特徴量の注出処理を完了しており、注出された特徴量は、一意の画像IDと共に、特徴パラメータテーブルTBL2に記憶されている。
Further, the
すなわち、列車側面に配置された行先表示器には、必ず、列車種別と行先駅が表示されており、画像認識サーバ4の画像認識プログラムRECOG は、列車種別と行先駅の全ての組み合わせについて、予め取得した模範撮影データから、必要な特徴量の注出を終えている。
That is, the train type and the destination station are always displayed on the destination display arranged on the side of the train, and the image recognition program RECOG of the
この点は、駅ホームに設置されている案内表示板についても同様であり、画像認識サーバ4(画像認識プログラムRECOG )は、案内表示板に表示される可能性のある列車種別と行先駅の全ての組み合わせについて、予め取得した模範撮影データから、必要な特徴量の注出を終えている。 This point is the same for the guide display board installed on the station platform, and the image recognition server 4 (image recognition program RECOG) has all the train types and destination stations that may be displayed on the guide display board. Regarding the combination of, the required feature amount has been poured out from the model shooting data acquired in advance.
なお、カメラで撮影した画像には、通常、列車種別や行先駅だけでなく、行先表示器の輪郭画像や他の文字情報も映り込んでいる。しかし、画像認識サーバ4の画像認識プログラムRECOG は、転送されてきた判定対象の撮影データから注出した複数の特徴量と、特徴パラメータTBL2に登録されている特徴量とを、画像IDごとに順番に対比して、一致する特徴量が最大個数となる画像IDと、この画像IDを選択したことの正解率(スコア値)を特定して管理サーバ3に返信している。したがって、ターゲット情報(列車種別/行先駅)以外の情報は、事実上、無視されることになる。なお、正解率は、特徴量の一致個数などに基づいて算出される。
The image taken by the camera usually reflects not only the train type and destination station, but also the outline image of the destination display and other text information. However, the image recognition program RECOG of the
一方、管理サーバ3には、画像認識サーバ4の特徴パラメータテーブルTBL2に対応して、参照テーブルTBL1が、出発駅ごとに設けられている。この参照テーブルTBL1には、全ての行先表示器と、全ての案内表示板について、行先駅と、列車種別の文字情報が、特徴パラメータテーブルTBL1と同一の画像IDで特定されて記憶されている。また。この参照テーブルTBL1には、画像ID毎に、当該列車の発車時刻が一又は複数個記憶されている。
<乗車判定システム各部の動作>
On the other hand, the
<Operation of each part of the boarding judgment system>
以上、図4に基づいて、乗車判定システムの構成を説明したので、システム利用者が乗車選択した列車の選択が正しいか否かを判定する一連の動作を説明する。 Since the configuration of the boarding determination system has been described above with reference to FIG. 4, a series of operations for determining whether or not the selection of the train selected by the system user is correct will be described.
なお、以下の説明では、(1)列車情報提供サーバ2は、スキーム名をhttpとする通常のanchorタグを埋め込んだ「行先判定ボタン」を配置し、行先駅/列車種別/出発駅/発車時刻をhidden属性で記載したWebページを配信し、(2)乗車判定アプリJUDGは、自らの内部処理としてブラウザ機能を発揮して、Webページを表示し操作する場合について説明する。また、以下の説明では、システム利用者は、駅ホームにおいて、自分が乗車しようとする列車を選択したタイミングであるとする。
[図4の第1ステップ~第3ステップ(携帯端末1の動作)]
In the following explanation, (1) the train
[
利用者が、乗車判定アプリJUDGを起動させると、起動した乗車判定アプリJUDGは、内蔵カメラを最適撮影条件に設定した後、ブラウザ機能を発揮する。すなわち、初期設定処理後は、任意のHTTPサーバがアクセス可能となるので、システム利用者は、列車情報提供サーバ2をアクセスして、自分が今いる出発駅と、自分が行きたい行先駅に関するWebページを取得して、図5のような列車案内画面をアプリ内に表示させる。
When the user activates the boarding judgment application JUDG, the activated boarding judgment application JUDG exerts the browser function after setting the built-in camera to the optimum shooting conditions. That is, since any HTTP server can be accessed after the initial setting process, the system user can access the train
そして、出発時間などを確認した上で、システム利用者が「行先判定ボタン」をタップすると、内蔵カメラが起動して、「列車側面の行先表示器か、又は、駅ホームの列車案内表示板を撮影して下さい。」との案内画面が表示される。この場合、内蔵カメラの表示画面には、行先表示器や列車案内表示板に対応する縦横比を有する、横長のフレーム枠が表示されるようになっている。 Then, after confirming the departure time, etc., when the system user taps the "destination determination button", the built-in camera is activated and "the destination indicator on the side of the train or the train information display board on the station platform is displayed. Please take a picture. "Is displayed on the guidance screen. In this case, the display screen of the built-in camera displays a horizontally long frame having an aspect ratio corresponding to the destination display and the train guide display board.
そこで、利用者は、内蔵カメラを行先表示器か列車案内表示板に向け、横長のフレーム枠に、車種と行先駅を捉えたタイミングで、撮影シャッターを押すことになる。 Therefore, the user points the built-in camera at the destination display or the train guide display board, and presses the shooting shutter at the timing when the vehicle type and the destination station are captured in the horizontally long frame.
すると、このシャッター操作に対応して、乗車判定アプリJUDGは、内蔵カメラが撮影した撮影データを、Webページにhidden属性で記載されている行先駅/列車種別/出発駅/発車時刻と共に、管理サーバ3にPOST送信する。
[図4の第4ステップ(管理サーバ3の動作)]
Then, in response to this shutter operation, the boarding judgment application JUDG records the shooting data taken by the built-in camera together with the destination station / train type / departure station / departure time described in the hidden attribute on the Web page, as well as the management server. POS is sent to 3.
[Fourth step in FIG. 4 (operation of management server 3)]
先に説明した通り、携帯端末1からPOSTデータを受けた管理サーバ3は、行先駅/列車種別/出発駅/発車時刻を、作業領域WORKに一時記憶する。また、管理サーバ3は、撮影データを、画像認識サーバ4に転送して、画像認識サーバ4からの返信を待つ。なお、携帯端末1から受けた出発駅に基づいて、出発駅に対応する参照テーブルTBL1が特定される。
[図4の第5ステップ(画像認識サーバ4の動作)]
As described above, the
[Fifth step in FIG. 4 (operation of the image recognition server 4)]
画像認識サーバ4は、管理サーバ3から受信した撮影データについて特徴量を注出すると共に、注出した特徴量を、特徴パラメータテーブルTBL2に記載の特徴量と順次対比して、一致する特徴量が最大個数となる画像IDと、この画像IDを選択したことの正解率(スコア値)を特定して管理サーバ3に返送する。
The
ここで、正解率は、画像認識サーバ4に転送された撮影データと、画像IDで特定される模範撮影データとの類似度合いを示している。したがって、撮影画像が不鮮明で、特徴量を注出できない場合や、転送された撮影データと類似する模範撮影データが検出されない場合は、正解率が0となる。
Here, the correct answer rate indicates the degree of similarity between the shooting data transferred to the
なお、管理サーバ3に返信される画像IDと正解率は、必ずしも一組である必要はなく、正解率が所定レベル以上であれば、複数組の画像ID及び正解率が、管理サーバ3に返送される。
[図4の第6ステップ(管理サーバ3の動作)]
The image ID and the correct answer rate returned to the
[Sixth step in FIG. 4 (operation of management server 3)]
待機状態の管理サーバ3が、画像認識サーバ4から画像ID及び正解率を受けると、管理サーバ3は、出発駅に対応する参照テーブルTBL1を参照して、画像IDに基づいて、行先駅と列車種別を特定する。
When the
そして、参照テーブルTBL1から注出される行先駅と、列車種別が、作業領域WORKに一時記憶されている行先駅と列車車種に一致するか否かを判定する。この判定結果には、G判定(a) :正解率の高い画像IDを受け、それが一時記憶中の行先及び種別と一致する場合と、G判定(b) :正解率の高い画像IDを受けたにも拘わらず、一時記憶中の行先や種別と一致しない場合と、NG判定(c) :正解率=0の判定結果を受けた場合や、正解率の低い画像IDしか受信できない場合と、に区分される。 Then, it is determined whether or not the destination station poured out from the reference table TBL1 and the train type match the destination station and the train vehicle type temporarily stored in the work area WORK. In this judgment result, G judgment (a): an image ID with a high correct answer rate is received and it matches the destination and type in temporary storage, and G judgment (b): an image ID with a high correct answer rate is received. Nevertheless, when it does not match the destination or type in temporary storage, when the judgment result of NG judgment (c): correct answer rate = 0 is received, or when only the image ID with low correct answer rate can be received. It is classified into.
ここで、G判定(a) やG判定(b) の場合には、管理サーバ3は、発車時刻の正当性を確認した上で、携帯端末1に認識結果を返信する。返信内容は、例えば「はい、その電車は、特急××駅行きです。・・・」、又は、「その電車ではありません。他の電車を探してください。」と表示したWebページとなる。なお、このWebページには、ユーザが撮影した撮影データと、管理サーバ3から受けた画像IDに基づいて特定される模範撮影データとが対比して携帯端末1に表示される。
Here, in the case of the G determination (a) or the G determination (b), the
但し、NG判定(c) の場合には、以下に説明する画像修復処理と反射除去処理を、この順番で実行した上で、再度、第4ステップの処理に戻り、画像認識サーバ4に補正撮影データを送信する。
However, in the case of the NG determination (c), after executing the image restoration processing and the reflection removal processing described below in this order, the process returns to the fourth step again, and the
そして、画像認識サーバ4から返信された画像IDが、管理サーバ3に一時記憶されている情報に一致するか否かを判定し(第5ステップ)、G判定(a) か、G判定(b) であれば、対応する回答を携帯端末1に返信することになる(第6ステップ)。
Then, it is determined whether or not the image ID returned from the
一方、補正撮影データについても、再度、NG判定(c) の場合には、「画像が不鮮明で判定できません。」との回答を携帯端末1に返信することになる(第6ステップ)。
<画像修復処理(A)と反射除去処理(B)>
On the other hand, regarding the corrected shooting data, in the case of NG judgment (c) again, the answer "The image is unclear and cannot be judged" is returned to the mobile terminal 1 (sixth step).
<Image restoration processing (A) and reflection removal processing (B)>
続いて、管理サーバ3が、画像認識サーバ4から、一回目のNG判定(c) を受けた後の動作について説明する。NG判定(c) を受けた管理サーバ3は、以下に説明する画像修復処理(A)と、反射除去処理(B)を、この順番に実行して、補正撮影データを生成する。
Subsequently, the operation after the
先ず、画像修復処理(A)は、蛍光灯などの反射光により、本来の文字情報が潜在化した場合に、この欠損部分の文字画像情報を、その周りの画像情報に基づいて補完する処理を意味する。
[画像修復(A)第1処理]
First, in the image restoration process (A), when the original character information is latent due to reflected light from a fluorescent lamp or the like, the character image information of the defective portion is complemented based on the surrounding image information. means.
[Image restoration (A) 1st processing]
画像修復処理(A)では、管理サーバ3は、作業領域WORKに一時保存されている撮影画像データから色情報を削除するため、撮影画像データをグレースケール化する。
In the image restoration process (A), the
グレースケール化の具体的な手法は、適宜に選択されるが、本実施例では、コンピュータビジョン向けライブラリOpen CV (Open Source Computer Vision Library )のDecolor 関数を、プログラミング言語Pythonの動作環境において使用した。なお、以下の説明は、全て、プログラミング言語Pythonの動作環境における説明である。 The specific method of grayscale is appropriately selected, but in this example, the Decolor function of the Open CV (Open Source Computer Vision Library) library for computer vision is used in the operating environment of the programming language Python. The following explanations are all explanations in the operating environment of the programming language Python.
Decolor 関数を使用する場合、Pythonでは、Grayscale.color_boost = cv.deColor(src) の書式となる。ここで、撮影画像がN個のピクセルで構成されている場合、cv.deColor関数の第1引数src は、要素数3*Nの配列Photo(R,G,B)を意味し、この配列には、RGBデータが、各1バイト長で記憶されている。 When using the Decolor function, in Python, the format is Grayscale.color_boost = cv.deColor (src). Here, when the captured image is composed of N pixels, the first argument src of the cv.deColor function means an array Photo (R, G, B) with 3 * N elements, and this array Is stored with RGB data having a length of 1 byte each.
一方、戻り値は、要素数Nの配列GS(i) であり、各ピクセルの濃淡情報(Gray Scale値)が1バイト長で格納される。なお、値が大きいほど明るく、小さいほど暗く、0は真っ黒、255は真っ白を意味する。
[画像修復(A)第2処理]
On the other hand, the return value is an array GS (i) having the number of elements N, and the grayscale information (Gray Scale value) of each pixel is stored in a byte length. The larger the value, the brighter the value, the smaller the value, the darker the value, 0 means pure black, and 255 means pure white.
[Image restoration (A) Second process]
次に、画像修復第1処理で求めたGray Scale値(以下、GS値と略す)について、所定の閾値TH1 より明るいピクセルを抽出する。具体的には、Open CV のinRange 関数を使用するが、Pythonでは、dst = cv.inRange(src, lowerb, upperb) の書式となる。 Next, with respect to the Gray Scale value (hereinafter abbreviated as GS value) obtained in the first image restoration process, pixels brighter than a predetermined threshold value TH1 are extracted. Specifically, the OpenCV inRange function is used, but in Python, the format is dst = cv.inRange (src, lowerb, upperb).
ここで、inRange 関数の第1引数src は、画像修復第1処理で算出した、要素数Nの結果配列GS(i) であって、ピクセル毎に、そのGS値が1バイト長で記憶されている。また、第2引数lowerbと第3引数upperbは、各々、スカラー値であって、ここでは、lowerb = 0、upperb = TH1としている。 Here, the first argument src of the inRange function is the result array GS (i) of the number of elements N calculated in the first image restoration process, and the GS value is stored in 1 byte length for each pixel. There is. Further, the second argument lowerb and the third argument upperb are scalar values, respectively, and here, lowerb = 0 and upperb = TH1.
一方、戻り値dst は、要素数Nの結果配列を示しており、この結果配列DST(i)には、255又は0が記憶される。具体的には、明るいピクセル(GS値>TH1)は0となり、そうでない、0≦GS値≦TH1のピクセルは、255となる。この結果配列DST(i)は、反射光による有効情報の欠損領域を0で示すことになる。通常、この欠損領域は、蛍光灯の発光である場合が多く、そのような場合は、欠損領域は、所定の幅を有した直線帯として形成される。
[画像修復(A)第3処理]
On the other hand, the return value dst indicates a result array having the number of elements N, and 255 or 0 is stored in the result array DST (i). Specifically, the bright pixel (GS value> TH1) is 0, and the other pixel with 0 ≦ GS value ≦ TH1 is 255. As a result, the array DST (i) indicates the region where the valid information is missing due to the reflected light by 0. Usually, this defective region is often the light emission of a fluorescent lamp, and in such a case, the defective region is formed as a straight band having a predetermined width.
[Image restoration (A) Third process]
続いて、欠損部分の画像情報を、その回りの画像情報から補完する。具体的には、Open CV のinpaint 関数を使用して欠損領域のピクセル情報(RGB各8ビット)を、周囲のピクセル情報から補完する。Pythonでは、例えば、st = cv.inpaint(src, Mask, Radius, flags) の書式となる。 Subsequently, the image information of the defective portion is complemented from the image information around it. Specifically, the inpaint function of Open CV is used to complement the pixel information of the missing area (8 bits each for RGB) from the surrounding pixel information. In Python, for example, the format is st = cv.inpaint (src, Mask, Radius, flags).
ここで、第1引数src は、撮影したピクセル数Nの撮影画像データを記憶する要素数3*Nの配列Photo(R,G,B)であり、RGBデータが、各1バイト長で記憶されている。第2引数Maskは、この実施例では、画像修復第2処理で算出したマスク配列DST(i)であって、要素数がNの配列である。先に説明した通り、マスク配列DST(i)の要素において、0は、修復されるべき箇所(欠損領域)を示している。 Here, the first argument src is an array Photo (R, G, B) having 3 * N elements for storing captured image data of the number of captured pixels N, and RGB data is stored with a length of 1 byte each. ing. In this embodiment, the second argument Mask is a mask array DST (i) calculated in the second image restoration process, and is an array having N elements. As described above, in the element of the mask sequence DST (i), 0 indicates a portion (defective region) to be repaired.
一方、第3引数Radiusは、修復されるべき箇所を含んだ近傍の円形領域の半径であり、欠損領域の幅に基づいて適宜に決定される。また、第4引数flags は、補完アルゴリズムを特定するフラグ値で、Navier-Stokes に基づく手法か、Alexandru Telea による手法かが特定可能となっている。なお、この実施例では、Alexandru Telea による手法を指定した。 On the other hand, the third argument Radius is the radius of the circular region in the vicinity including the portion to be repaired, and is appropriately determined based on the width of the defective region. In addition, the fourth argument flags is a flag value that specifies the completion algorithm, and it is possible to specify whether the method is based on Navier-Stokes or Alexandru Telea. In this example, the method by Alexandru Telea was specified.
また、結果配列dst は、入力配列src と同一サイズ、同一タイプの配列Repair(R, G, B) であり、画像修復後のRGBデータが保存される。以上の処理の結果、蛍光灯などの反射光の部分の文字情報が、ある程度復元される。図6(a)は、欠損部分を補完したカラー画像を示しており、左上部に表示されている反射光の傾斜ラインと、右下部に表示される白色領域について、各々の発光が有意に緩和されている。
[反射除去(B)第1処理]
The result array dst is an array Repair (R, G, B) of the same size and type as the input array src, and the RGB data after image restoration is saved. As a result of the above processing, the character information of the reflected light portion such as the fluorescent lamp is restored to some extent. FIG. 6A shows a color image in which the defective portion is complemented, and the emission of each of the inclined line of the reflected light displayed in the upper left part and the white area displayed in the lower right part is significantly reduced. Has been done.
[Reflection removal (B) first treatment]
続く、反射除去処理では、画像修復処理(A)を終えた画像データ(以下、修復画像データという)の各ピクセルについて、先ず、RGB各8ビットデータからHSV色空間のH,S,Vを算出する。ここで、HSV色空間とは、あるピクセルの色彩を、「色相(Hue )」「彩度(Saturation)」「明度(Value )」の3つの組み合わせで表現する手法である。H,S,V値の算出手法は、特に限定されないが、ここでは、Open CV のcvtColor関数を使用し、例えば、Pythonでは、dst = cv.cvtColor(src, code)の書式となる。 In the subsequent reflection removal processing, H, S, and V of the HSV color space are first calculated from each of the 8-bit RGB data for each pixel of the image data (hereinafter referred to as the repaired image data) that has completed the image restoration processing (A). do. Here, the HSV color space is a method of expressing the color of a certain pixel by three combinations of "hue", "saturation", and "value". The method for calculating the H, S, and V values is not particularly limited, but here, the cvtColor function of Open CV is used, and in Python, for example, the format is dst = cv.cvtColor (src, code).
修復画像データがN個のピクセルで構成されている場合、上記のPython書式において、cv.cvtColor 関数の第1引数src で指定する入力配列SRC は、画像修復処理(A)の結果配列Repair(R, G, B) である。 When the repair image data is composed of N pixels, the input array SRC specified by the first argument src of the cv.cvtColor function in the above Python format is the result array Repair (R) of the image repair process (A). , G, B).
この結果配列Repair(R, G, B) には、ピクセル毎のRGBデータが、B→G→Rの順番で記憶されている。なお、第2引数codeによって、実行すべき処理が、HSV色空間への変換であることを指示する。そして、戻り値dst は、要素数3*Nの結果配列であり、cvtColor関数の処理によって、結果配列DST(i)には、H値とS値とV値がピクセル毎に記憶されることになる。 As a result, RGB data for each pixel is stored in the array Repair (R, G, B) in the order of B → G → R. The second argument code indicates that the process to be executed is conversion to the HSV color space. The return value dst is a result array with 3 * N elements, and the H value, S value, and V value are stored pixel by pixel in the result array DST (i) by the processing of the cvtColor function. Become.
そこで、本実施例では、次に、反射除去第1処理の結果配列DST(i)に基づいて、N個のピクセルのV値を記憶した要素数NのV値配列Value(i)を生成する。
[反射除去(B)第2処理]
Therefore, in this embodiment, next, based on the result array DST (i) of the first reflection removal process, a V value array Value (i) having the number of elements N storing the V values of N pixels is generated. ..
[Reflection removal (B) second treatment]
次に、反射除去第1処理で生成したN個の明度値についてのV値配列Value(i)について、全ピクセルに対する出現頻度のヒストグラムを作成し、明度(Value )を示すV値について、適宜な閾値TH2を特定する。 Next, for the V value array Value (i) for the N lightness values generated in the first reflection removal process, a histogram of the appearance frequency for all pixels is created, and the V value indicating the lightness (Value) is appropriate. The threshold TH2 is specified.
図7は、撮影画像と、V値の出現頻度ヒストグラムを図示したものである。なお、ここでは、撮影画像の全体を表示しているが、実際の運用では、横長のフレーム枠の外側は、全て黒色に処理される。 FIG. 7 shows a captured image and a histogram of the appearance frequency of the V value. Although the entire captured image is displayed here, in actual operation, the outside of the horizontally long frame is all blackened.
何れにしても、反射除去処理に供される画像の場合には、図示のように、V値=0の出現頻度が圧倒的であり、その他のV値の出現頻度は極めて低いが、0を超えるV値(>0)において、何れかのV値で出現頻度がピークとなる。そこで、本実施例では、ピーク値を示すV値より上側のV値であって、例えば、ピーク値の70%位置のV値を閾値TH2として選択することにする。
[反射除去(B)第3処理]
In any case, in the case of the image to be subjected to the reflection removal processing, as shown in the figure, the appearance frequency of V value = 0 is overwhelming, and the appearance frequency of other V values is extremely low, but 0 is set. When the V value exceeds (> 0), the appearance frequency peaks at any V value. Therefore, in this embodiment, the V value above the V value indicating the peak value, for example, the V value at the 70% position of the peak value is selected as the threshold value TH2.
[Reflection removal (B) 3rd process]
次に、反射除去第3処理では、反射除去第2処理で特定した閾値TH2より高い明度のピクセルを抽出する。例えば、Open CV のinRange 関数を使用するが、Pythonでは、dst = cv.inRange(src, lowerb, upperb) の書式となる。 Next, in the reflection removal third process, pixels having a brightness higher than the threshold value TH2 specified in the reflection removal second process are extracted. For example, we use the OpenCV inRange function, but in Python it has the format dst = cv.inRange (src, lowerb, upperb).
ここで、第1引数src は、反射除去第2処理で得られたV値についてのV値配列Value(i)である。また、第2引数lowerbと第3引数upperbは、各々、HSVに関するスカラー値であって、ここでは、lowerb = TH2、upperb = 255としている。 Here, the first argument src is a V value array Value (i) for the V value obtained in the second reflection removal process. Further, the second argument lowerb and the third argument upperb are scalar values related to HSV, respectively, and here, lowerb = TH2 and upperb = 255.
一方、戻り値dst は、要素数Nの結果配列Mask(i) を示しており、この結果配列Mask(i) には、255又は0が記憶される。具体的には、高明度(TH2≦V値≦255)のピクセルは、白(255)となり、そうでない、V値<TH2の通常ピクセルは、黒(0)となる。この処理は、N個のピクセルについて、各ピクセルを採用するか否かを、結果配列Mask(i) に特定する処理に他ならない。
[反射除去(B)第4処理]
On the other hand, the return value dst indicates the result array Mask (i) having the number of elements N, and 255 or 0 is stored in the result array Mask (i). Specifically, a pixel with high brightness (TH2 ≦ V value ≦ 255) is white (255), and a normal pixel with V value <TH2 is black (0). This process is nothing but a process of specifying whether or not to adopt each pixel for N pixels in the result array Mask (i).
[Reflection removal (B) 4th process]
続いて、反射除去第3処理で高明度ピクセルと判定されたピクセルについて、画像修復処理(A)の結果配列Repair(R, G, B) から、RGB画像データを抽出する。ここでは、例えば、Open CV のbitwise_and 関数を使用するが、Pythonでは、dst = cv.bitwise_and(src1, src2, dst, mask) の書式となる。 Subsequently, RGB image data is extracted from the result array Repair (R, G, B) of the image repair process (A) for the pixels determined to be high-brightness pixels in the reflection removal third process. Here, for example, the OpenCV bitwise_and function is used, but in Python, the format is dst = cv.bitwise_and (src1, src2, dst, mask).
ここで、第1引数src1と第2引数src2は、反射除去第1処理で使用した配列、つまり、画像修復(A)による修復画像RGBデータを保存した修復画像配列Repair(R, G, B) となる。また、第3引数dst は、出力配列を意味し、要素数3*N個の配列Take(R, G, B) を示している。 Here, the first argument src1 and the second argument src2 are the arrays used in the first reflection removal process, that is, the restoration image array Repair (R, G, B) in which the restoration image RGB data by the image restoration (A) is saved. It becomes. The third argument dst means an output array and indicates an array Take (R, G, B) having 3 * N elements.
一方、第4引数maskは、マスク配列を意味する。具体的には、反射除去第3処理で算出された要素数Nの結果配列MASK(i) を使用する。このbitwise_and 関数では、MASK(i) ≠0の場合にだけ、dst(i) = src1(i)Λsrc2(i) の論理演算が実行される。なお、Λは、AND演算を意味する。 On the other hand, the fourth argument mask means a mask array. Specifically, the result array MASK (i) of the number of elements N calculated in the reflection removal third process is used. In this bitwise_and function, the logical operation of dst (i) = src1 (i) Λsrc2 (i) is executed only when MASK (i) ≠ 0. Note that Λ means an AND operation.
先に説明した通り、本実施例では、マスク配列MASK(i) の各要素は、高明度(TH2≦V値≦255)のピクセルについて255となり、そうでないピクセルについて0となっている。したがって、マスク配列MASK(i) の要素が255である高明度のピクセルに対してだけ、以下の処理が実行され、修復画像RGBデータを保存した修復画像配列Repair (R, G, B)が、出力配列Take(R, G, B) にコピーされることなる。具体的な処理内容を示すと、Reject(R, G, B) = Repair(R, G, B) Λ Repair(R, G, B)となる。 As described above, in this embodiment, each element of the mask array MASK (i) is 255 for pixels with high brightness (TH2 ≦ V value ≦ 255) and 0 for pixels that are not. Therefore, the following processing is executed only for the high-brightness pixels in which the element of the mask array MASK (i) is 255, and the repair image array Repair (R, G, B) that stores the repair image RGB data is It will be copied to the output array Take (R, G, B). The specific processing content is Reject (R, G, B) = Repair (R, G, B) Λ Repair (R, G, B).
一方、マスク配列MASK(i) の要素が(0)となる通常明度のピクセルに対しては、上記のAND 演算が実行されない。すなわち、結果配列Take(R, G, B) の要素は、初期状態(0, 0, 0 )のままとなるので、結局、結果配列Take(R, G, B) には、高明度の重要部分だけが保存されることになる。 On the other hand, the above AND operation is not executed for the pixel of normal brightness in which the element of the mask array MASK (i) is (0). That is, the elements of the result array Take (R, G, B) remain in the initial state (0, 0, 0), so after all, high brightness is important for the result array Take (R, G, B). Only the part will be saved.
鉄道用の列車案内表示板において、「発車時刻」、「電車の車種」、「目的駅名」は、その重要性に基づき、他の部分より明るく表示されている。そして、反射除去処理で、高明度の部分だけを切り出すことで、映り込みが緩和され、必要部分のみが抽出される。すなわち、反射光の映り込みによって何を表す画像が分からなかった画像が、しっかりと、行先駅や種別を表示した画像に変換されることになる。図6(b)は、反射除去処理の処理結果を示しており、重要部分の文字情報がより鮮明化されていることが確認される。 On the train information display board for railways, the "departure time", "train model", and "destination station name" are displayed brighter than other parts based on their importance. Then, by cutting out only the high-brightness portion by the reflection removing process, the reflection is alleviated and only the necessary portion is extracted. That is, an image in which the image representing what is not known due to the reflection of the reflected light is firmly converted into an image displaying the destination station and the type. FIG. 6B shows the processing result of the reflection removal processing, and it is confirmed that the character information of the important portion is made clearer.
なお、図6(b)は、反射除去処理の効果を対比的に示すため、列車案内表示板が、敢えて、3行にわたって撮影されているが(行先が三カ所)、実際の運用では、カメラに横長のフレーム枠を表示することで、単一の行先駅しか取得されない。 In addition, in FIG. 6B, in order to contrast the effect of the reflection removal processing, the train guide display board is intentionally photographed over three lines (three destinations), but in actual operation, the camera is used. By displaying a horizontally long frame frame, only a single destination station can be acquired.
以上の通り、画像修復処理(A)と反射除去処理(B)を実行することで、反射除去処理第3処理の結果配列Take(R, G, B) には、文字情報が修復され、且つ、反射光が緩和された補正撮影データが保存されることになる。そこで、管理サーバ3は、補正撮影データを、画像認識サーバ4に送信して、判定結果を待つことになる(図4の第4ステップ)。
As described above, by executing the image restoration process (A) and the reflection removal process (B), the character information is restored in the result array Take (R, G, B) of the reflection removal process third process, and the character information is restored. , The corrected shooting data in which the reflected light is relaxed will be saved. Therefore, the
そして、管理サーバ3は、画像認識サーバ4から返信された画像IDが、管理サーバ3に一時記憶されている情報に一致するか否かを判定し、G判定(a) か、G判定(b) であれば、対応する回答を携帯端末1に返信することになる。
Then, the
一方、補正撮影データについても、NG判定(c) の場合には、「画像が不鮮明で判定できません。」との回答を携帯端末1に返信することになる。
On the other hand, regarding the corrected shooting data, in the case of the NG judgment (c), the answer "The image is unclear and cannot be judged" is returned to the
以上、図4に示す乗車判定システムについて詳細に説明したが、ここまでの説明は、携帯端末1に乗車判定アプリJUDGがインストールされていることを前提にしている。しかし、乗車判定アプリJUDGがインストールされていない携帯端末1では、JavaScriptプログラムによって、内蔵カメラを最適に設定することは、HTML5ではできない。
The boarding determination system shown in FIG. 4 has been described in detail above, but the description so far is based on the premise that the boarding determination application JUDG is installed on the
そこで、そのような場合に備えて、乗車判定アプリJUDGがインストールされていない携帯端末に対しては、内蔵カメラを連写モードで動作させるか、動画モードで動作させるのが好ましい。 Therefore, in preparation for such a case, it is preferable to operate the built-in camera in the continuous shooting mode or the moving image mode for the mobile terminal in which the boarding determination application JUDG is not installed.
具体的な手法は、適宜であるが、例えば、「行先判定ボタン」のタップ操作に対応して、列車情報提供サーバ2が配信するWebページに、注意書きとして、「乗車判定アプリを使用されない場合は、連写モードか動画モードで行先表示器/列車案内表示板を撮影して下さい。」と表示することが考えられる。
The specific method is appropriate, but for example, in response to the tap operation of the "destination determination button", the "boarding determination application is not used" as a cautionary note on the Web page distributed by the train
次に、この注意書きに対応してシステム利用者がカメラを操作した場合を説明する。管理サーバ3が、撮影画像データを連続的に受信する場合や、動画フレームデータを受信する場合には、それらを全て作業領域WORKに一時保存すると共に、連写画像の適当枚、又は、動画フレーム画像の複数枚を重ね合わせて、撮影画像データとして、画像認識サーバ4に転送する(第4ステップの処理)。
Next, a case where the system user operates the camera corresponding to this cautionary note will be described. When the
なお、この第4ステップの処理は、携帯端末1から動画や連写画像が送信される第3ステップの処理に連続して実行しても良いし、画像認識サーバ4から、NG判定(c) を受けた後、つまり、第5ステップに続いて実行しても良い。
The process of the fourth step may be continuously executed in the process of the third step in which the moving image or the continuous shot image is transmitted from the
連写画像の1枚や、動画から切り出した1枚のフレーム画像によって、画像認識サーバ4から、G判定(a) か、G判定(b) を受ける可能性は、低くないので、好適には、後者の手順とすべきである。すなわち、画像認識サーバ4から、NG判定(c) を受けた後に限り、複数枚の画像データを重ね合わせて、撮影画像データとして、画像認識サーバ4に再送すべきである。
It is not unlikely that the
以上、本発明の実施例について、詳細に説明したが、具体的な記載内容は、何ら本発明を限定せず、適宜に変更可能である。特に、プログラミング言語Pythonの動作環境を前提にする必要は全くない。但し、Open CV の関数を使用することは、プログラムを簡素化する上で効果的である。 Although the embodiments of the present invention have been described in detail above, the specific description contents are not limited to the present invention and can be appropriately changed. In particular, there is no need to assume the operating environment of the programming language Python. However, using Open CV functions is effective in simplifying the program.
また、上記の実施例では、乗車判定アプリJUDGがインストールされていない携帯端末について、連写モードや動画モードで動作させる構成を説明したが、乗車判定アプリJUDGがインストールされている携帯端末についても、同様の動作モードを設けても良い。 Further, in the above embodiment, the configuration for operating the mobile terminal on which the boarding determination application JUDG is not installed is described in the continuous shooting mode or the video mode, but the mobile terminal on which the boarding determination application JUDG is installed is also described. A similar operation mode may be provided.
また、上記の説明では、鉄道車両について説明したが、バス、飛行機、船、乗合タクシーなどへの搭乗時の判定処理にも、ほぼ同じ構成を採用することができる。また、シャッター速度Sその他のカメラ設定値について、具体的に記載したが、一例を記載したに過ぎず、特に本発明を限定するものではない。 Further, in the above description, although the railway vehicle has been described, almost the same configuration can be adopted for the determination process at the time of boarding a bus, an airplane, a ship, a shared taxi, or the like. Further, although the shutter speed S and other camera setting values have been specifically described, only an example is described, and the present invention is not particularly limited.
ところで、上記の実施例では、システム利用者が、駅ホームにおいて列車情報提供サーバ2をアクセスする場合を説明したが、何ら限定されない。例えば、列車情報提供サーバ2をアクセスして、必要情報(行先駅/列車種別/出発駅/発車時刻)を管理サーバ3に送信する第1処理と、駅ホームにおいて、列車側面の行先表示器か、又は、駅ホームの列車案内表示板を撮影して、管理サーバ3に撮影画像データを送信する第2処理に、有意な時間差を設けても良い。
By the way, in the above embodiment, the case where the system user accesses the train
図8は、このような実施例を説明する図面である。図8には、列車情報提供サーバ2をアクセスして、必要情報(行先駅/列車種別/出発駅/発車時刻)を管理サーバ3に送信する第1処理が、第1ステップ~第3ステップとして示されている。この処理は、例えば、乗車予定の前日などに、ホテルその他において実行される。
FIG. 8 is a drawing illustrating such an embodiment. In FIG. 8, the first process of accessing the train
一方、管理サーバ3は、第1処理で送信された必要情報(行先駅/列車種別/出発駅/発車時刻)を、一意のユーザIDと共に、適宜な作業領域WORKに保存する。なお、作業領域WORKを適正に管理するため、受付日時も合わせて保存する。
On the other hand, the
そして、管理サーバ3は、前記したユーザIDを、「必要情報を受け取った旨」を表示するWebページと共に、携帯端末1に返送する(図8の第4ステップ)。そして、このユーザIDは、例えば、クッキーDATAとして、携帯端末1に保存される。
Then, the
次に、所定時間経過後、駅ホームにおいて、システム利用者が、携帯端末の乗車判定アプリJUDGを起動すると、起動した乗車判定アプリJUDGは、内蔵カメラを最適撮影条件に設定した後、ブラウザ機能と内蔵カメラを起動させて、横長のフレーム枠と共に、「列車側面の行先表示器か、又は、駅ホームの列車案内表示板を撮影して下さい。」との案内画面を表示する。 Next, after a predetermined time has elapsed, when the system user activates the boarding judgment application JUDG of the mobile terminal at the station platform, the activated boarding judgment application JUDG sets the built-in camera to the optimum shooting conditions and then performs the browser function. Activate the built-in camera and display a guide screen saying "Please take a picture of the destination indicator on the side of the train or the train guide display board on the station platform." Along with the horizontally long frame.
そこで、利用者は、内蔵カメラを行先表示器か列車案内表示板に向け、横長のフレーム枠に、車種と行先駅を捉えたタイミングで、撮影シャッターを押すことになる。 Therefore, the user points the built-in camera at the destination display or the train guide display board, and presses the shooting shutter at the timing when the vehicle type and the destination station are captured in the horizontally long frame.
すると、このシャッター操作に対応して、乗車判定アプリJUDGは、内蔵カメラが撮影した撮影データを、ユーザIDと共に管理サーバ3に送信する(図8の第5ステップ)。
Then, in response to this shutter operation, the boarding determination application JUDG transmits the shooting data taken by the built-in camera to the
その後の処理は、図4の構成の場合と同じであり、管理サーバ3は、撮影データを、画像認識サーバ4に転送して、画像認識サーバ4からの返信を待つ(図8の第6ステップ)。なお、参照テーブルTBL1は、作業領域WORKに記憶されている出発駅に基づいて特定される。
Subsequent processing is the same as in the case of the configuration of FIG. 4, and the
一方、画像認識サーバ4は、管理サーバ3から受信した撮影データについて特徴量を注出すると共に、注出した特徴量を、特徴パラメータテーブルTBL2に記載の特徴量と順次対比して、一致する特徴量が最大個数となる画像IDと、この画像IDを選択したことの正解率(スコア値)を特定して管理サーバ3に返送する(図8の第7ステップ)。
On the other hand, the
すると、待機状態の管理サーバ3は、画像認識サーバ4から受けた画像ID及び正解率に基づいて、携帯端末1に判定結果を返送するか(図8の第8ステップ)、或いは、撮影データを補正して画像認識サーバに再送信する(図8の第6ステップ)。なお、作業領域WORKの保存データは、その必要が無くなったタイミングか、受付日からの保存期間が過ぎたタイミングで消去される。
Then, the
この構成を採る場合には、システム利用者は、前日の夜など、時間に余裕のある状態で列車を選択でき、当日は、駅ホームで写真撮影するだけで足りるメリットがある。なお、乗車判定アプリJUDGがインストールされていない携帯端末1では、内蔵カメラを、連写モードか動画モードで機能させるのは図4の場合と同じである。
When this configuration is adopted, the system user can select a train in a state where there is plenty of time, such as the night before, and there is an advantage that it is sufficient to take a picture at the station platform on that day. In the
以上、二つの実施例について説明したが、本発明の範囲に含まれる限り、適宜な変更が可能である。特に、上記の各実施例では、発車時刻を問題にしているが、簡素化の観点からは、管理サーバ3が、発車時刻を問題にすることなく、認識結果を携帯端末1に返信する構成を採るのも好適である。
Although the two examples have been described above, appropriate changes can be made as long as they are included in the scope of the present invention. In particular, in each of the above embodiments, the departure time is a problem, but from the viewpoint of simplification, the
1 携帯端末
2 情報提供サーバ
3 管理サーバ
1
Claims (10)
前記管理サーバは、所定のシャッター速度、前記携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件で撮影された撮影画像を受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている乗車判定システム。 An information providing server that provides traffic information of transportation, a mobile terminal configured to be able to acquire necessary traffic information from the information providing server, a photographed image related to traffic information from the mobile terminal, and corresponding characters. The management server is configured to be able to retrieve information, and is configured to have
The management server has a shooting image taken under shooting conditions of a predetermined shutter speed, an aperture value specified by the mobile terminal, and a predetermined ISO sensitivity specified corresponding to the shutter speed and the aperture value. In response to the above, a boarding determination system configured to return a determination result as to whether or not the photographed image is appropriate in relation to the character information to the mobile terminal.
前記管理サーバは、連写撮影された複数枚の撮影画像か、動画撮影された動画フレームの撮影画像を受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている乗車判定システム。 An information providing server that provides traffic information of transportation, a mobile terminal configured to be able to acquire necessary traffic information from the information providing server, a photographed image related to traffic information from the mobile terminal, and corresponding characters. The management server is configured to be able to retrieve information, and is configured to have
The management server receives a plurality of shot images shot continuously or shot images of a moving image frame shot as a moving image, and determines whether or not the shot image is appropriate in relation to the character information. , A boarding determination system configured to reply to the mobile terminal.
前記特徴量は、前記携帯端末から受信する可能性のある撮影画像ごとに予め注出されて、前記特徴パラメータテーブルに記憶されている請求項1又は2に記載の乗車判定システム。 It is configured to include a feature parameter table that stores one or more feature quantities corresponding to ID information that can identify the character information.
The boarding determination system according to claim 1 or 2, wherein the feature amount is dispensed in advance for each captured image that may be received from the mobile terminal and stored in the feature parameter table.
前記撮影画像から注出される特徴量と、前記特徴パラメータテーブルに記憶されている特徴量と、を比較して実行される請求項3に記載の乗車判定システム。 The determination of whether or not the captured image acquired by the management server is appropriate in relation to the character information is determined.
The boarding determination system according to claim 3, wherein the feature amount poured out from the captured image and the feature amount stored in the feature parameter table are compared and executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020205099A JP7058708B1 (en) | 2020-12-10 | 2020-12-10 | Boarding judgment system, setting program, mobile terminal, and management server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020205099A JP7058708B1 (en) | 2020-12-10 | 2020-12-10 | Boarding judgment system, setting program, mobile terminal, and management server |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7058708B1 true JP7058708B1 (en) | 2022-04-22 |
JP2022092337A JP2022092337A (en) | 2022-06-22 |
Family
ID=81291894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020205099A Active JP7058708B1 (en) | 2020-12-10 | 2020-12-10 | Boarding judgment system, setting program, mobile terminal, and management server |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7058708B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006018181A (en) | 2004-07-05 | 2006-01-19 | Sony Ericsson Mobilecommunications Japan Inc | Portable electronic photographing system, auxiliary photographing light generating apparatus, portable electronic apparatus and power supply apparatus |
JP2018106465A (en) | 2016-12-27 | 2018-07-05 | 株式会社リコー | Boarding guide system, boarding guide method, information processing apparatus and program |
WO2018198809A1 (en) | 2017-04-26 | 2018-11-01 | 日本電気株式会社 | Guidance system |
-
2020
- 2020-12-10 JP JP2020205099A patent/JP7058708B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006018181A (en) | 2004-07-05 | 2006-01-19 | Sony Ericsson Mobilecommunications Japan Inc | Portable electronic photographing system, auxiliary photographing light generating apparatus, portable electronic apparatus and power supply apparatus |
JP2018106465A (en) | 2016-12-27 | 2018-07-05 | 株式会社リコー | Boarding guide system, boarding guide method, information processing apparatus and program |
WO2018198809A1 (en) | 2017-04-26 | 2018-11-01 | 日本電気株式会社 | Guidance system |
Also Published As
Publication number | Publication date |
---|---|
JP2022092337A (en) | 2022-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210406323A1 (en) | Method and apparatus for photograph finding | |
US8885963B2 (en) | Automatic image capture | |
US8730356B2 (en) | System and method for automatic flash removal from images | |
CN107958490A (en) | Hands-free augmented reality for radio communication device | |
CN110650292B (en) | Method and device for assisting user in shooting vehicle video | |
TW202011263A (en) | System and method for performing image processing based on a damage assessment image judgement model | |
US20130044194A1 (en) | Automatic image capture | |
US10373397B2 (en) | Information processing device, information processing method, and information processing system | |
CN109495686B (en) | Shooting method and equipment | |
CN106600421A (en) | Intelligent car insurance loss assessment method and system based on image recognition | |
EP2003611A2 (en) | Information presentation system, information presentation terminal, and server | |
US10726262B2 (en) | Imaging support system, device and method, and imaging terminal | |
US20200090318A1 (en) | Flat surface detection in photographs for tamper detection | |
CN107808461B (en) | A kind of customized ticket production method | |
AU2009200887A1 (en) | Image processing apparatus and method | |
TW201448585A (en) | Real time object scanning using a mobile phone and cloud-based visual search engine | |
US11818633B2 (en) | Map update system, data transmission device, and data transmission method | |
JP7058708B1 (en) | Boarding judgment system, setting program, mobile terminal, and management server | |
WO2021068795A1 (en) | Image display method and device, image identification method and device, medium, apparatus, and system | |
US11748702B2 (en) | Methods of determining status of position in shelf, shelves and non-transitory computer-readable storage media | |
JP2019092000A (en) | Automatic photographing system and automatic photographing method | |
CN113748402A (en) | System and method for dynamically loading region-based augmented reality content | |
US20230104061A1 (en) | Methods and apparatuses for determining statuses of positions on shelves, shelves and non-transitory computer-readable storage media | |
KR102098130B1 (en) | Traffic information recognition system and method using QR code | |
JP7160763B2 (en) | Information processing device, information processing system, information processing method, program, and application program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201210 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7058708 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |