JP7058708B1 - Boarding judgment system, setting program, mobile terminal, and management server - Google Patents

Boarding judgment system, setting program, mobile terminal, and management server Download PDF

Info

Publication number
JP7058708B1
JP7058708B1 JP2020205099A JP2020205099A JP7058708B1 JP 7058708 B1 JP7058708 B1 JP 7058708B1 JP 2020205099 A JP2020205099 A JP 2020205099A JP 2020205099 A JP2020205099 A JP 2020205099A JP 7058708 B1 JP7058708 B1 JP 7058708B1
Authority
JP
Japan
Prior art keywords
mobile terminal
information
image
management server
shutter speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020205099A
Other languages
Japanese (ja)
Other versions
JP2022092337A (en
Inventor
剛志 伊東
真則 古川
雄斗 溝口
Original Assignee
近畿日本鉄道株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 近畿日本鉄道株式会社 filed Critical 近畿日本鉄道株式会社
Priority to JP2020205099A priority Critical patent/JP7058708B1/en
Application granted granted Critical
Publication of JP7058708B1 publication Critical patent/JP7058708B1/en
Publication of JP2022092337A publication Critical patent/JP2022092337A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】利用者が乗車選択した乗り物の選択の正否を、簡易且つ高精度に判定できる乗車判定システムを提供する。【解決手段】 列車情報を提供する情報提供サーバ2から必要な列車情報を取得する携帯端末1と、携帯端末1から撮影画像を文字情報と共に取得する管理サーバ3と、を有し、管理サーバ3は、所定のシャッター速度、携帯端末1で規定されている絞り値、及び、シャッター速度と絞り値に対応して規定されるISO感度の撮影条件で撮影された撮影画像を受けて、その撮影画像が、文字情報との関係で適切か否かの判定結果を返信する。【選択図】図4PROBLEM TO BE SOLVED: To provide a boarding determination system capable of simply and highly accurately determining the correctness of selection of a vehicle selected by a user. SOLUTION: The management server 3 has a mobile terminal 1 for acquiring necessary train information from an information providing server 2 for providing train information, and a management server 3 for acquiring a photographed image together with text information from the mobile terminal 1. Receives a photographed image taken under a predetermined shutter speed, an aperture value specified by the mobile terminal 1, and shooting conditions of ISO sensitivity specified corresponding to the shutter speed and the aperture value, and the photographed image thereof. Returns the judgment result of whether or not it is appropriate in relation to the character information. [Selection diagram] FIG. 4

Description

本発明は、乗車しようとしている乗り物が、正しいか否かを、簡易、且つ確実に判定できる乗車判定システムに関し、特に、旅行客に対して好適に機能する。 The present invention relates to a boarding determination system that can easily and surely determine whether or not the vehicle to be boarded is correct, and is particularly suitable for tourists.

現地の地理に明るくない観光客にとって、乗車すべき列車やバスを正確に把握することは容易でなく、特に、外国人観光客にとっては、その困難が顕著である。そこで、鉄道駅員などの係員は、観光客から頻繁に質問を受けることになるが、労働力の不足が問題視される中で、このまま、人による対応を続けた場合、サービスレベルを維持するのが難しくなるおそれがある。 It is not easy for tourists who are not familiar with the local geography to know exactly which train or bus to board, and especially for foreign tourists, the difficulty is remarkable. Therefore, staff members such as railway station staff are frequently asked questions by tourists, but if the labor shortage is regarded as a problem and people continue to respond as it is, the service level will be maintained. May be difficult.

そこで、かかる点を考慮して、携帯端末のカメラで撮影した車両や案内表示板の画像を判定して、携帯端末に適切な情報を返信するシステムも提案されている(特許文献1~特許文献2)。 Therefore, in consideration of this point, a system has been proposed in which an image of a vehicle or a guide display board taken by a camera of a mobile terminal is determined and appropriate information is returned to the mobile terminal (Patent Documents 1 to 1). 2).

例えば、特許文献1には、「(端末装置から受けた経路探索条件を満たす、出発地から目的地までの案内経路を探索して)案内経路(データ)を取得する第1手段と、撮影部を制御して交通機関の乗車案内表示物の撮影画像を取得する第2手段と、上記撮影画像中の表示内容を抽出する第3手段と、上記案内経路と、上記表示内容から特定された路線、駅名および進行方向のうち少なくとも1つと、に基づいて、上記路線が適切であるか否かなどを含む案内情報を生成する第4手段と、上記案内情報を出力する第5手段と、を備えた情報処理システム」が開示されている。 For example, Patent Document 1 describes "a first means for acquiring a guide route (data) (searching for a guide route from a departure point to a destination that satisfies the route search condition received from a terminal device), and a photographing unit. The second means for acquiring the photographed image of the boarding guide display of the transportation system, the third means for extracting the display content in the photographed image, the guide route, and the route specified from the display content. , A fourth means for generating guidance information including whether or not the route is appropriate based on at least one of the station name and the direction of travel, and a fifth means for outputting the guidance information. Information processing system "is disclosed.

特許第6017636号公報Japanese Patent No. 6017636 特許第5775076号公報Japanese Patent No. 5775076

この特許文献1に記載の構成では、案内経路を取得することが必須要件となっているが、第1手段や第4手段を実現することが、現実的には容易でない。この点を、具体的に確認すると、先ず、利用者は、端末装置を操作して出発地と目的地とを含む経路探索条件を、ナビゲーションサーバへ送信する煩雑な処理が必要となる。 In the configuration described in Patent Document 1, it is an essential requirement to acquire a guide route, but it is not practically easy to realize the first means and the fourth means. To confirm this point concretely, first, the user needs to operate the terminal device to perform complicated processing of transmitting the route search condition including the departure point and the destination to the navigation server.

しかも、ナビゲーションサーバでは、経路探索条件を満たす出発地から目的地までの案内経路を、交通網データベースから探索して、案内経路データを生成する必要があり、この処理も、ナビゲーションサーバにとって大きな処理負担となる。 Moreover, the navigation server needs to search the guidance route from the departure point to the destination that satisfies the route search condition from the transportation network database and generate the guidance route data, and this processing also has a large processing burden on the navigation server. It becomes.

かかる点を考慮すると、利用者の処理負担が少なく、且つ、サーバ側の処理負担も軽いシステムの完成が望まれるところである。特に、携帯端末の内蔵カメラを最適に動作させることができるシステムの完成が望まれる。 Considering this point, it is desired to complete a system in which the processing load on the user side is small and the processing load on the server side is also light. In particular, it is desired to complete a system that can optimally operate the built-in camera of the mobile terminal.

本発明は、上記の課題に鑑みてなされたものであって、携帯端末の内蔵カメラを最適に動作させることで、利用者が乗車選択した乗り物の選択の正否を、簡易且つ高精度に判定できる乗車判定システムを提供することを目的とする。 The present invention has been made in view of the above problems, and by optimally operating the built-in camera of the mobile terminal, it is possible to easily and highly accurately determine whether or not the vehicle selected by the user has been selected. The purpose is to provide a boarding determination system.

上記の目的を達成するため、請求項1に係る乗車判定システムは、交通機関の交通情報を提供する情報提供サーバと、前記情報提供サーバから必要な交通情報を取得可能に構成された携帯端末と、前記携帯端末から、交通情報に関する撮影画像と、これに対応する文字情報を取得可能に構成された管理サーバと、を有して構成され、前記管理サーバは、所定のシャッター速度、前記携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件で撮影された撮影画像を受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている。 In order to achieve the above object, the boarding determination system according to claim 1 includes an information providing server that provides traffic information of transportation, and a mobile terminal configured to be able to acquire necessary traffic information from the information providing server. The mobile terminal is configured to include a photographed image related to traffic information and a management server configured to be able to acquire character information corresponding to the photographed image, and the management server has a predetermined shutter speed and the mobile terminal. In response to a shooting image taken under the shooting conditions of the aperture value specified in the above and the shooting conditions of the predetermined ISO sensitivity specified corresponding to the shutter speed and the aperture value, the shot image is the text information. It is configured to return the determination result of whether or not it is appropriate in relation to the above-mentioned mobile terminal.

また、請求項2に係る乗車判定システムは、交通機関の交通情報を提供する情報提供サーバと、前記情報提供サーバから必要な交通情報を取得可能に構成された携帯端末と、前記携帯端末から、交通情報に関する撮影画像と、これに対応する文字情報を取得可能に構成された管理サーバと、を有して構成され、前記管理サーバは、連写撮影された複数枚の撮影画像か、動画撮影された動画フレームの撮影画像を受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている。 Further, the boarding determination system according to claim 2 is composed of an information providing server that provides traffic information of transportation, a mobile terminal configured to be able to acquire necessary traffic information from the information providing server, and the mobile terminal. It is configured to have a captured image related to traffic information and a management server configured to be able to acquire text information corresponding to the captured image, and the management server is configured to capture a plurality of captured images taken continuously or to shoot a moving image. In response to the captured image of the moving image frame, the determination result of whether or not the captured image is appropriate in relation to the character information is returned to the mobile terminal.

上記した何れの発明でも、交通情報に関する撮影画像が、これに対応する文字情報と共に、携帯端末から送信されるので、管理サーバは、撮影画像と文字情報の整合性を判定するだけでよく、制御負担が大幅に軽減される。すなわち、管理サーバは、与えられた条件(経路探索条件)を満たす出発地から目的地までの案内経路を探索する必要は全くない。 In any of the above inventions, since the photographed image related to the traffic information is transmitted from the mobile terminal together with the corresponding character information, the management server only needs to determine the consistency between the photographed image and the character information, and controls the image. The burden is greatly reduced. That is, the management server does not need to search for a guide route from the departure point to the destination that satisfies the given condition (route search condition).

また、管理サーバは、撮影画像と共に、これに対応する文字情報を携帯端末から受けるので、文字認識処理を経ることなく、撮影画像と文字情報だけで、利用者が乗車選択した乗り物の選択の正否情報を返信することができる。 In addition, since the management server receives the character information corresponding to the photographed image from the mobile terminal together with the photographed image, the correctness or rejection of the vehicle selection selected by the user based only on the photographed image and the character information without going through the character recognition process. Information can be returned.

一方、本発明は、所定のシャッター速度、携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件を請求項1に記載の携帯端末に設定するための設定プログラム、又は、前記設定プログラムがインストールされた携帯端末でもある。
On the other hand, according to claim 1 , the present invention describes a predetermined shutter speed, an aperture value specified by a mobile terminal, and shooting conditions of a predetermined ISO sensitivity specified corresponding to the shutter speed and the aperture value. It is also a setting program for setting in the mobile terminal of the above, or a mobile terminal in which the setting program is installed.

また、本発明は、所定のシャッター速度、携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件で撮影された撮影画像を、これに対応する文字情報と共に、前記携帯端末から受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている管理サーバでもある。 Further, the present invention is a photographed image taken under a predetermined shutter speed, an aperture value specified by a mobile terminal, and a shooting condition of a predetermined ISO sensitivity specified corresponding to the shutter speed and the aperture value. Is received from the mobile terminal together with the corresponding character information, and the determination result of whether or not the captured image is appropriate in relation to the character information is returned to the mobile terminal. It is also a server.

上記の発明を利用することで、携帯端末を最適条件で動作させることができ、管理サーバの判定精度を上げることができる。 By using the above invention, the mobile terminal can be operated under the optimum conditions, and the determination accuracy of the management server can be improved.

交通機関には、少なくとも、列車、バス、飛行機、船、及びタクシーが含まれる。情報提供サーバは、管理サーバと同一ドメインでも良いし、異なるドメインでもよい。 Transportation includes at least trains, buses, planes, ships, and taxis. The information providing server may be in the same domain as the management server, or may be in a different domain.

画像撮影データは、静止画であっても、動画であっても良い。画像撮影データは、典型的には、列車などの交通機関の側面プレート(行先表示器)を撮影したデータである。但し、駅ホーム(Platform)などに配置された列車案内表示板を撮影したものでもよい。 The image capture data may be a still image or a moving image. The imaging data is typically data obtained by photographing a side plate (destination indicator) of a transportation system such as a train. However, it may be a photograph of a train information display board placed on a station platform (Platform) or the like.

本発明によれば、携帯端末の内蔵カメラを最適に動作させることで、利用者が乗車選択した乗り物の選択の正否を、簡易且つ高精度に判定することができる。 According to the present invention, by optimally operating the built-in camera of the mobile terminal, it is possible to easily and highly accurately determine whether or not the vehicle selected by the user has been selected.

列車側面の行先表示器を撮影する場合の最適なシャッター速度を検討した検討結果である。This is the result of examining the optimum shutter speed when shooting the destination indicator on the side of the train. 第1駅~第3駅の列車案内表示板や行先表示器について、最適なISO感度を検討した検討結果である。This is the result of examining the optimum ISO sensitivity for the train information display boards and destination indicators of the 1st to 3rd stations. 第4駅~第6駅の列車案内表示板や行先表示器について、最適なISO感度を検討した検討結果である。This is the result of examining the optimum ISO sensitivity for the train information display boards and destination indicators of the 4th to 6th stations. 実施例に係る乗車判定システムの全体構成を示す構成図である。It is a block diagram which shows the whole structure of the boarding determination system which concerns on Example. 携帯端末に配信されるWebページを例示した図面である。It is a drawing which illustrates the Web page distributed to a mobile terminal. 画像修復処理と反射除去処理の処理結果を示す図面である。It is a figure which shows the processing result of the image restoration processing and the reflection removal processing. 明度(Value )を示すV値の出現ヒストグラムから、V値の閾値TH2を特定する手法を説明する図面である。It is a figure explaining the method of specifying the threshold value TH2 of a V value from the appearance histogram of the V value which shows the lightness (Value). 別の実施例に係る乗車判定システムの全体構成を示す構成図である。It is a block diagram which shows the whole structure of the boarding determination system which concerns on another Example.

以下、実施例に基づいて、本発明を詳細に説明する。先ず、携帯端末の内蔵カメラを最適に動作させる撮影条件を特定するべく実施した撮影調査と、この調査結果から得られた最適撮影条件について説明する。
<最適撮影条件の特定>
Hereinafter, the present invention will be described in detail based on examples. First, a shooting survey conducted to specify the shooting conditions for optimally operating the built-in camera of the mobile terminal and the optimum shooting conditions obtained from the survey results will be described.
<Specification of optimum shooting conditions>

本発明者は、駅ホームに設置された列車案内表示板と、列車側面の行先表示器をカメラで正確に撮影できる撮影条件を検討した。なお、列車側面の行先表示器には、文字がシートに印刷されている「字幕タイプ」のものと、LED表示器を使用する「LEDタイプ」のものとが存在する。また、列車案内表示板としては、液晶表示器を使用する「液晶タイプ」のものが一般的である。 The present inventor examined the shooting conditions under which the train guide display board installed on the station platform and the destination display on the side of the train can be accurately photographed by the camera. There are two types of destination indicators on the side of the train, one is a "subtitle type" in which characters are printed on a sheet, and the other is an "LED type" in which an LED indicator is used. Further, as the train guide display board, a "liquid crystal type" using a liquid crystal display is generally used.

また、スマートフォンなどの携帯端末の内蔵カメラを使用して、列車案内表示板や行先表示器を正確に撮影できるか否かは、カメラのレンズを通過してくる光の総量や、画像そのものの明るさに関連し、これらは、レンズの絞り値と、露光時間と、フィルム感度(実際には撮像素子の感度)と、の組み合わせによって決まる。
[調査検討1(シャッター速度について)]
In addition, whether or not the train information display board and destination display can be accurately photographed using the built-in camera of a mobile terminal such as a smartphone depends on the total amount of light passing through the camera lens and the brightness of the image itself. In relation to this, these are determined by the combination of the aperture value of the lens, the exposure time, and the film sensitivity (actually, the sensitivity of the image pickup element).
[Survey Study 1 (Shutter speed)]

そこで、先ず、最適なシャッター速度について検討した。ここで、シャッター速度とは、カメラによる写真撮影の際に、シャッターが開放され、フィルムまたは撮像素子が、レンズを通した光に晒される時間(露光時間)を意味し、露光時間が短いほどシャッター速度が速く、露光時間が長いほどシャッター速度が遅い関係にある。 Therefore, first, the optimum shutter speed was examined. Here, the shutter speed means the time (exposure time) in which the shutter is opened and the film or image pickup element is exposed to the light passing through the lens when taking a picture with a camera. The shorter the exposure time, the more the shutter. The faster the speed and the longer the exposure time, the slower the shutter speed.

このシャッター速度の調査では、携帯端末の内蔵カメラについて、(1) 手ぶれ補正機能=OFF設定、(2) 絞り値=自動設定、(3) ISO感度=自動設定にして、各駅において、シャッター速度を、1/4000秒、1/1000秒、1/400秒、1/125秒、1/5秒、その他に多様に変更しつつ、多数の画像を撮影し、撮影画像が適切か否かを目視判定した。 In this shutter speed survey, for the built-in camera of the mobile terminal, (1) image stabilization function = OFF setting, (2) aperture value = automatic setting, (3) ISO sensitivity = automatic setting, and the shutter speed was set at each station. , 1/4000 seconds, 1/1000 seconds, 1/400 seconds, 1/125 seconds, 1/5 seconds, etc., while taking a large number of images and visually checking whether the shot images are appropriate or not. Judged.

撮影画像の適切性は、撮影画像の明るい/暗いは問題にせず、コンピュータによる画像認識が可能か否かの観点で判定し、文字が途切れないことを最優先の条件とした。これは、LEDタイプの行先表示器は、いわゆるダイナミック点灯方式を採っている場合が多く、シャッター速度が速すぎると、途切れた文字しか撮影できないためである。また、「液晶タイプ」の列車案内表示板も、全ての画素が同時に点灯される訳ではなく、文字の途切れが懸念されるためである。 The appropriateness of the captured image was judged from the viewpoint of whether or not the image recognition by the computer was possible, regardless of whether the captured image was bright or dark, and the highest priority condition was that the characters were not interrupted. This is because LED-type destination indicators often employ a so-called dynamic lighting method, and if the shutter speed is too fast, only interrupted characters can be photographed. In addition, not all pixels of the "liquid crystal type" train guide display board are lit at the same time, and there is a concern that characters may be interrupted.

先ず、図1(a)に示す通り、「字幕タイプ」の行先表示器の調査結果では、シャッター速度1/5秒の場合に、手振れが生じたものの、シャッター速度に関係なく撮影可能と結論された。 First, as shown in FIG. 1 (a), according to the survey results of the "subtitle type" destination display, it was concluded that shooting was possible regardless of the shutter speed, although camera shake occurred when the shutter speed was 1/5 second. rice field.

次に、図1(b)に示す通り、「液晶タイプ」の列車案内表示板については、1/5秒と1/20秒における手ぶれ以外は撮影に成功した。したがって、「液晶タイプ」の列車案内表示板についても、シャッター速度に関係なく撮影が可能と結論される。 Next, as shown in FIG. 1 (b), the "liquid crystal type" train guide display board was successfully photographed except for camera shake at 1/5 second and 1/20 second. Therefore, it can be concluded that even the "liquid crystal type" train guide display board can be photographed regardless of the shutter speed.

「LEDタイプ」の行先表示器は、ダイナミック点灯の動作態様が必ずしも一定しない。そのため、シャッター速度1/160秒でも文字が途切れる場合があるが、シャッター速度1/1000秒より速いと殆ど正確に撮影できなかった(図1(c)参照)。一方、シャッター速度が遅すぎると手ぶれの心配があるので、一枚も失敗が無かった1/40~1/125秒が最適と結論される。 In the "LED type" destination indicator, the operation mode of dynamic lighting is not always constant. Therefore, characters may be interrupted even at a shutter speed of 1/160 second, but if the shutter speed is faster than 1/1000 second, it was almost impossible to shoot accurately (see FIG. 1 (c)). On the other hand, if the shutter speed is too slow, there is a risk of camera shake, so it is concluded that 1/40 to 1/125 seconds, when there was no failure, is optimal.

以上の通り、(1) 字幕タイプの場合は、シャッター速度が1/5秒より速ければ問題が無いこと、(2) 液晶タイプの場合は、1/40秒よりシャッター速度が速ければ問題が無いこと、(3) LEDタイプの場合は、シャッター速度1/40~1/125秒であれば問題が無いこと、が明らかとなった。そこで、本発明者は、シャッター速度1/40~1/125秒が好適な数値範囲であると結論した。
[調査検討2(明るさ調査)]
As described above, (1) in the case of the subtitle type, there is no problem if the shutter speed is faster than 1/5 second, and (2) in the case of the liquid crystal type, there is no problem if the shutter speed is faster than 1/40 second. It was clarified that (3) in the case of the LED type, there is no problem if the shutter speed is 1/40 to 1/125 seconds. Therefore, the present inventor has concluded that a shutter speed of 1/40 to 1/125 second is a suitable numerical range.
[Survey Study 2 (Brightness Survey)]

続いて、正しい明るさで撮影できる設定値を導くべく、明るさについて調査検討した。なお、明るさには、シャッター速度と、ISO感度と、絞り値の全てが関係する。 Then, in order to derive the setting value that can be taken with the correct brightness, the brightness was investigated and examined. The brightness is related to the shutter speed, the ISO sensitivity, and the aperture value.

先ず、ISO感度は、写真フィルム(携帯端末では撮像素子)のISO規格(International Organization for Standardization)であって、ある撮像素子が、どの程度弱い光まで対応できるかを示している。例えば、ISO感度200の撮像素子は、受光能力が、ISO感度100の2倍あるため、ISO感度100の半分の強さの光まで対応できることになる。 First, ISO sensitivity is an ISO standard (International Organization for Standardization) for photographic film (an image sensor in a mobile terminal), and indicates how weak a certain image sensor can handle light. For example, an image sensor with an ISO sensitivity of 200 has a light receiving capacity twice that of ISO sensitivity 100, so that it can handle light with half the intensity of ISO sensitivity 100.

このISO感度は、対数表記I’又は算術表記Iされるが、対数表記I’と、算術表記Iとの間には、I=10(I’-1)/10・・・(式1)や、I’=10Log10I+1・・・(式2)の近似式が成立する。(式1)では、算術表記Iが、最も近い値の標準的感度に丸められ、(式2)では、対数表記I’が四捨五入によって整数化される。 This ISO sensitivity is expressed in logarithmic notation I'or arithmetic notation I, but between the logarithmic notation I'and the arithmetic notation I, I = 10 (I'-1) / 10 ... (Equation 1). Or, an approximate expression of I'= 10Log 10 I + 1 ... (Equation 2) is established. In (Equation 1), the arithmetic notation I is rounded to the standard sensitivity of the closest value, and in (Equation 2), the logarithmic notation I'is rounded to an integer.

したがって、例えば、ISO感度20(算術表記I=20)は、対数表記では、I’=10Log1020+1≒14となる。つまり、ISO感度(算術表記)20は、対数表記では14であって、20≒101.3の関係が成立する。 Therefore, for example, the ISO sensitivity 20 (arithmetic notation I = 20) is I'= 10Log 10 20 + 1≈14 in logarithmic notation. That is, the ISO sensitivity (arithmetic notation) 20 is 14 in logarithmic notation, and the relationship of 20≈10 1.3 is established.

また、絞り値Fは、レンズの焦点距離と、有効口径(直径)とに基づいて、絞り値F=焦点距離/有効口径(直径)・・・(式3)と特定される。したがって、同じレンズでは、絞り値が小さいほど撮影画像が明るくなり、例えば、絞り値2.0は、絞り値4.0より4倍明るいことになる。 Further, the aperture value F is specified as aperture value F = focal length / effective aperture (diameter) ... (Equation 3) based on the focal length of the lens and the effective aperture (diameter). Therefore, with the same lens, the smaller the aperture value, the brighter the captured image. For example, the aperture value of 2.0 is four times brighter than the aperture value of 4.0.

以上を踏まえて、調査2では、(1) シャッター速度=1/125秒、(2) 絞り値=2.2、(3) 手ぶれ補正=OFF設定の条件で、ISO感度を、100,200,400,800,1600,3200,4000,8000に変化させて、設置環境が異なる複数の駅で、列車案内表示板や行先表示器を撮影した画像について、その明るさの適否を判定した。 Based on the above, in Survey 2, the ISO sensitivity was set to 100, 200, under the conditions of (1) shutter speed = 1/125 second, (2) aperture value = 2.2, and (3) image stabilization = OFF setting. The brightness was changed to 400, 800, 1600, 3200, 4000, and 8000, and the suitability of the brightness of the images taken of the train guide display board and the destination display at multiple stations with different installation environments was judged.

図2(a)は、照度440~920ルクスの地下駅1について、ISO感度を変えて列車案内表示板や、行先表示器を撮影した多数の撮影サンプルを評価して、適正割合の%表記を示したものである。 In FIG. 2 (a), for the underground station 1 having an illuminance of 440 to 920 lux, a large number of photographs taken of the train guide display board and the destination indicator with different ISO sensitivities are evaluated, and the% notation of the appropriate ratio is shown. It is shown.

ISO感度1600を超えると明る過ぎて半分以上が失敗と評価され、一方、ISO感度を100まで下げると暗すぎて3割ほど失敗することが判明した。したがって、この地下駅1では、ISO感度200~400が適切と考えられる。 It was found that when the ISO sensitivity exceeds 1600, it is too bright and more than half are evaluated as failures, while when the ISO sensitivity is lowered to 100, it is too dark and fails by about 30%. Therefore, at this underground station 1, ISO sensitivity of 200 to 400 is considered appropriate.

図2(b)は、照度590~1130ルクスの地上駅2についての調査結果である。ISO感度が800を超えると半分以上が失敗と評価され、ISO感度が低ければ低いほど、撮影成功率が高いことが判明した。なお、ISO感度200、400の失敗は、回送電車を撮影したためであり無視することができる。したがって、地上駅2では、ISO感度100~400が適切と考えられる。 FIG. 2B is a survey result of the ground station 2 having an illuminance of 590 to 1130 lux. When the ISO sensitivity exceeds 800, more than half are evaluated as failures, and it was found that the lower the ISO sensitivity, the higher the shooting success rate. The failure of ISO sensitivities 200 and 400 is due to the shooting of the deadhead train and can be ignored. Therefore, at the ground station 2, ISO sensitivity of 100 to 400 is considered appropriate.

図2(c)は、照度140~1900ルクスの地上駅3についての調査結果である。この地上駅3では、ISO感度200~400が適切であると評価される。 FIG. 2C shows the survey results for the ground station 3 having an illuminance of 140 to 1900 lux. At this ground station 3, ISO sensitivity of 200 to 400 is evaluated to be appropriate.

図3(a)は、照度600~1060ルクスの地上駅4についての調査結果である。この調査結果によれば、地上駅4では、ISO感度100~200での撮影が適切であると評価される。 FIG. 3A is a survey result of the ground station 4 having an illuminance of 600 to 1060 lux. According to the results of this survey, it is evaluated that shooting at an ISO sensitivity of 100 to 200 is appropriate at the ground station 4.

図3(b)は、照度280~5500ルクスの地上駅5についての調査結果である。地上駅5では、ISO感度が低ければ低い程、撮影成功率が高いことが確認される。そして、ISO感度800を超えると半分以上失敗するので、ISO感度100~200での撮影が適切であると評価される。 FIG. 3B is a survey result of the ground station 5 having an illuminance of 280 to 5500 lux. At the ground station 5, it is confirmed that the lower the ISO sensitivity, the higher the shooting success rate. If the ISO sensitivity exceeds 800, more than half of the failures will occur, so it is evaluated that shooting with an ISO sensitivity of 100 to 200 is appropriate.

図3(c)は、照度5万~20万ルクスの地上駅6についての調査結果である。地上駅6は、直射日光を受けて、目を開けているのも辛い明るさであり、ISO感度80まで下げても高い確率で失敗する。絞り値を4以上に設定すれば、直射日光下でも撮影は可能であるが、好適なシャッター速度(1/40~1/125秒)を考慮すると、シャッター速度を1/125秒より速くできないという条件下では、携帯端末でここまで暗く設定することはできない。 FIG. 3C shows the survey results for the ground station 6 having an illuminance of 50,000 to 200,000 lux. The ground station 6 is exposed to direct sunlight, and it is difficult to open its eyes, and even if the ISO sensitivity is lowered to 80, it will fail with a high probability. If you set the aperture value to 4 or more, you can shoot even in direct sunlight, but considering the suitable shutter speed (1/40 to 1/125 seconds), the shutter speed cannot be faster than 1/125 seconds. Under the conditions, it is not possible to set it so dark on a mobile terminal.

以上の通り、絞り値=2.2、シャッター速度=1/125秒の条件において、(1) 地下駅1では、ISO感度200~400が適切であること、(2) 地上駅2では、ISO感度100~400が適切であること、(3) 地上駅3では、ISO感度200~400が適切であること、(4) 地上駅4では、ISO感度100~200が適切であること、(5) 地上駅5では、ISO感度100~200が適切であること、(6) 地上駅6では、携帯端末での撮影は難しいこと、が明らかなとなった。そこで、本発明者は、撮影時には直射日光を避けるという条件付きで、ISO感度200が望ましいと結論した。 As described above, under the conditions of aperture value = 2.2 and shutter speed = 1/125 second, (1) ISO sensitivity of 200 to 400 is appropriate for underground station 1, and (2) ISO for ground station 2. Sensitivity 100-400 is appropriate, (3) ISO sensitivity 200-400 is appropriate for ground station 3, (4) ISO sensitivity 100-200 is appropriate for ground station 4, (5) ) It became clear that ISO sensitivity 100 to 200 is appropriate at the ground station 5, and (6) it is difficult to shoot with a mobile terminal at the ground station 6. Therefore, the present inventor has concluded that an ISO sensitivity of 200 is desirable, provided that direct sunlight is avoided at the time of photography.

但し、上記の結論は、あくまで絞り値が2.2の場合であり、携帯端末によって絞り値が異なる。しかも、この絞り値は、一般に、自由に変更することはできない。そこで、この制限を踏まえて、どんな携帯端末でも、適切な条件で動作する構成を特定する必要がある。 However, the above conclusion is only for the case where the aperture value is 2.2, and the aperture value differs depending on the mobile terminal. Moreover, this aperture value is generally not freely changeable. Therefore, based on this limitation, it is necessary to specify a configuration that operates under appropriate conditions on any mobile terminal.

そこで、更に検討した結果、本発明者は、三つのパラメータである(1) シャッター速度、(2) ISO感度、及び、(3) 絞り値は、互いに影響し合い、一つ正しい設定値を見つければ、どの数値を変えても他の数値で補完することができることに思い至った。すなわち、(1) シャッター速度は、シャッターが開放され撮像素子が、レンズを通した光に晒される時間(露光時間)であるので、シャッター速度Sが遅くなればなるほど、撮影画像が明るくなり、例えば、シャッター速度S=1/500秒は、S=1/1000秒よりも2倍明るいと言える。 Therefore, as a result of further studies, the present inventor can find one correct setting value because the three parameters (1) shutter speed, (2) ISO sensitivity, and (3) aperture value affect each other. For example, I came up with the idea that any value can be changed and supplemented with other values. That is, (1) the shutter speed is the time (exposure time) when the shutter is opened and the image pickup element is exposed to the light passing through the lens. Therefore, the slower the shutter speed S, the brighter the captured image, for example. It can be said that the shutter speed S = 1/500 second is twice as bright as S = 1/1000 second.

(2) ISO感度は、撮像素子がどの程度弱い光まで対応できるかのパラメータであり、ISO感度が大きいほど、撮影画像が明るくなり、例えば、ISO感度1000は、ISO感度500よりも2倍明るいと言える。 (2) The ISO sensitivity is a parameter of how weak the light can be handled by the image sensor. The larger the ISO sensitivity, the brighter the captured image. For example, the ISO sensitivity 1000 is twice as bright as the ISO sensitivity 500. It can be said that.

(3) また、絞り値F=焦点距離/有効口径(直径)・・・(式3)より、絞り値は、その数値(有効口径)が小さいほど、撮影画像が明るくなり、例えば、絞り値2.0は絞り値4.0より4倍明るいと言える。 (3) From the aperture value F = focal length / effective aperture (diameter) ... (Equation 3), the smaller the value (effective aperture) of the aperture value, the brighter the captured image, for example, the aperture value. It can be said that 2.0 is four times brighter than the aperture value of 4.0.

これら、(1) シャッター速度Sと、(2) ISO感度Iと、(3) 絞り値Fによれば、下記の(式4)が成立するように、シャッター速度Sと、ISO感度Iと、絞り値Fの各値を調整することで、一定の明るさを保つことができると考えられる。
S×I/F=一定・・・(式4)
そして、先の調査結果の最適値(S=1/125,I=200,F=2.2)より、(式4)の一定値は、最適条件において、ほぼ0.33(≒1/125×200/2.2)であると特定される。
According to these (1) shutter speed S, (2) ISO sensitivity I, and (3) aperture value F, the shutter speed S, ISO sensitivity I, and so on so that the following (Equation 4) holds. It is considered that a constant brightness can be maintained by adjusting each value of the aperture value F.
S × I / F 2 = constant ... (Equation 4)
Then, from the optimum values (S = 1/125, I = 200, F = 2.2) of the previous survey results, the constant value of (Equation 4) is approximately 0.33 (≈1/125) under the optimum conditions. × 200 / 2.2 2 ) is specified.

すなわち、(式4)の算出値が0.33となるよう、(1) シャッター速度Sと、(2) ISO感度Iと、(3) 絞り値Fについて、各値を設定すれば、どの携帯端末でも正しい明るさで行先表示器や列車案内表示板を撮影することができることになる。 That is, if the values of (1) shutter speed S, (2) ISO sensitivity I, and (3) aperture value F are set so that the calculated value of (Equation 4) is 0.33, which mobile phone is used. Even with the terminal, it will be possible to take pictures of the destination display and train information display board with the correct brightness.

一般に、携帯端末は、カメラレンズの絞り値Fが固定値である。また、調査の結果、ある程度暗めの撮影が求められることから、シャッター速度は最適範囲(1/40~1/125秒)のうち最速の1/125秒に固定し、携帯端末の絞り値Fに応じて、ISO感度Iを、(式4)に基づいて算出し、そのISO感度に調整するのが望ましいと結論した。 Generally, in a mobile terminal, the aperture value F of the camera lens is a fixed value. In addition, as a result of the investigation, since shooting darker to some extent is required, the shutter speed is fixed at 1/125 second, which is the fastest in the optimum range (1/40 to 1/125 second), and the aperture value F of the mobile terminal is set. Therefore, it was concluded that it is desirable to calculate the ISO sensitivity I based on (Equation 4) and adjust it to the ISO sensitivity.

すなわち、以下に説明する実施例では、使用する携帯端末のカメラレンズの絞り値Fに基づき、ISO感度Iを、I=0.33×F×125・・・(式5)に設定して行先表示器や列車案内表示板を撮影することにする。 That is, in the embodiment described below, the ISO sensitivity I is set to I = 0.33 × F 2 × 125 ... (Equation 5) based on the aperture value F of the camera lens of the mobile terminal to be used. I decided to take a picture of the destination display and the train information display board.

但し、(式5)を、そのまま使用すると、F=2.0の場合に、I=165となり、F=2.2の場合に、I=199.65となるなど、採用可能なISO感度に完全には一致しない。そこで、予め、決定テーブルCNVを用意しておき、例えば、F=2.0の場合に160を採用し、F=2.2の場合にISO感度200を採用するよう構成している。 However, if (Equation 5) is used as it is, I = 165 when F = 2.0, I = 199.65 when F = 2.2, and so on. Not an exact match. Therefore, a determination table CNV is prepared in advance, and for example, 160 is adopted when F = 2.0, and ISO sensitivity 200 is adopted when F = 2.2.

Figure 0007058708000002
Figure 0007058708000002

<乗車判定システム>
図4は、携帯端末の内蔵カメラを、上記した最適撮影条件で動作させる乗車判定システムを示すブロック図である。なお、ここでは、一例として、地理に不案内な旅行者(システム利用者)が、目的駅に行くために乗車選択した列車の選択が、正しいか否かを判定する場合について説明する。
<Ride judgment system>
FIG. 4 is a block diagram showing a boarding determination system for operating the built-in camera of the mobile terminal under the above-mentioned optimum shooting conditions. Here, as an example, a case where a traveler (system user) who is unfamiliar with geography determines whether or not the selection of the train selected for boarding to go to the destination station is correct will be described.

一般に、駅ホームに設置された列車案内表示板は、その駅ホームからの発車時刻と、発車予定の列車の種別と、行先駅(終着駅又は乗換駅)とを表示している。また、列車側面の行先表示器には、列車の種別と、行先駅(終着駅又は乗換駅)とが一般に表示されている。 Generally, a train information display board installed on a station platform displays the departure time from the station platform, the type of train scheduled to depart, and the destination station (terminal station or transfer station). In addition, the type of train and the destination station (terminal station or transfer station) are generally displayed on the destination indicator on the side of the train.

ここで、種別とは、全ての列車を、普通/準急/急行/快速急行/特急などに区分する情報であり、行先駅への到着時刻の優劣関係や、途中停車駅の違いなどを特定している。 Here, the type is information that classifies all trains into normal / semi-express / express / rapid express / limited express, etc., and specifies the superiority / inferiority relationship of arrival time at the destination station, the difference in the stop station on the way, and the like. ing.

図4に示す通り、実施例の乗車判定システムは、カメラ付きの携帯端末1と、目的駅に到着するために必要な列車情報を提供する列車情報提供サーバ2と、所定の文字情報と画像情報を携帯端末1から受ける共に、画像認識サーバ4から受ける情報に基づいて、利用者による列車選択の適否を携帯端末1に返信する管理サーバ3と、管理サーバ3から転送される画像情報を、登録済みの画像情報を比較して、必要な判定情報を返信する画像認識サーバ4と、を有して構成されている。 As shown in FIG. 4, the boarding determination system of the embodiment includes a mobile terminal 1 with a camera, a train information providing server 2 that provides train information necessary for arriving at a destination station, and predetermined text information and image information. Is received from the mobile terminal 1, and based on the information received from the image recognition server 4, the management server 3 that returns the appropriateness of the train selection by the user to the mobile terminal 1 and the image information transferred from the management server 3 are registered. It includes an image recognition server 4 that compares completed image information and returns necessary determination information.

列車情報提供サーバ2と、管理サーバ3と、画像認識サーバ4は、各々、インターネット回線NETに接続されたHTTPサーバである。また、携帯端末1は、内蔵カメラを有すると共に、移動体通信回線MOBを経由して、インターネット回線NET上のWEBページを取得するブラウザが搭載されている。 The train information providing server 2, the management server 3, and the image recognition server 4 are HTTP servers connected to the Internet line NET, respectively. Further, the mobile terminal 1 has a built-in camera and is equipped with a browser for acquiring a WEB page on the Internet line NET via the mobile communication line MOB.

また、携帯端末1には、内蔵ブラウザと協働して、以下に説明する処理を実行する乗車判定アプリ(アプリ名はJUDG)が、決定テーブルCNV(表1)と共に、予めインストールされている。 Further, a boarding determination application (application name is JUDG) that executes the process described below in cooperation with the built-in browser is pre-installed on the mobile terminal 1 together with the determination table CNV (Table 1).

この乗車判定アプリJUDGは、Webページに記載された所定ボタンを、利用者がタップすると起動するよう構成されている。但し、何ら、この構成に限定されず、乗車判定アプリ自体がブラウザ機能を発揮して、アプリ内でWebページを表示して、利用者の操作を待つ構成を採っても良い。 This boarding determination application JUDG is configured to be activated when the user taps a predetermined button described on the Web page. However, the configuration is not limited to this, and the boarding determination application itself may exhibit a browser function, display a Web page in the application, and wait for the user's operation.

何れの構成を採る場合でも、乗車判定アプリJUDGの起動時に実行される初期設定処理によって、内蔵カメラのシャッター速度Sが、1/125秒に設定されると共に、当該携帯端末1の絞り値Fに対応するISO感度Iが、表1に示す決定テーブルCNVに基づく最適値に設定される。 Regardless of which configuration is adopted, the shutter speed S of the built-in camera is set to 1/125 second by the initial setting process executed when the boarding determination application JUDG is started, and the aperture value F of the mobile terminal 1 is set. The corresponding ISO sensitivity I is set to the optimum value based on the determination table CNV shown in Table 1.

また、列車情報提供サーバ2は、携帯端末1(WEBクライアント)からの指示に基づき、任意の出発駅と目的駅に関して、発車時刻などの列車情報などを掲載したWEBページ(図5参照)を配信するよう構成されている。 In addition, the train information providing server 2 distributes a WEB page (see FIG. 5) containing train information such as departure time for any departure station and destination station based on instructions from the mobile terminal 1 (WEB client). It is configured to do.

図5に示すように、このWebページには、出発駅(〇〇)から到着駅(××)に移動する列車種別(図示例は特急)と、出発時間及び到着時刻が、運賃などと共に掲載されている。また、このWebページには、「行先判定ボタン」が配置されており、このボタンを利用者がタップすると、インストール済みの乗車判定アプリJUDGが起動するよう構成されている。 As shown in Fig. 5, this Web page shows the train type (express in the figure) that moves from the departure station (○○) to the arrival station (XX), as well as the departure time and arrival time, along with the fare and other information. Has been done. In addition, a "destination determination button" is arranged on this Web page, and when the user taps this button, the installed boarding determination application JUDG is activated.

このWebページは、具体的には、例えば、URLスキームが活用され、anchorタグのスキーム名の部分に、通信プロトコルを特定するhttpに代えて、アプリ名(JUDG)を指定することで、インストール済みのアプリJUDGが実行可能となっている。すなわち、このWebページには、例えば、<a href = "JUDG://">行先判定</a>のようなanchorタグが記載されている。 Specifically, for example, the URL scheme is used for this Web page, and the application name (JUDG) is specified in the scheme name part of the anchor tag instead of http that specifies the communication protocol. App JUDG can be executed. That is, an anchor tag such as <a href = "JUDG: //"> destination determination </a> is described in this Web page.

そして、利用者のタップ操作に対応して、乗車判定アプリJUDGが起動すると、内蔵カメラが起動すると共に、シャッター速度Sが1/125秒に設定され、当該携帯端末1の絞り値Fに対応する最適なISO感度Iが設定される。 Then, when the boarding determination application JUDG is activated in response to the user's tap operation, the built-in camera is activated and the shutter speed S is set to 1/125 second, which corresponds to the aperture value F of the mobile terminal 1. The optimum ISO sensitivity I is set.

次に、「乗車しようとする列車について、その列車側面の行先表示器か、列車案内表示板を撮影して下さい。」との案内画面が立ち上がる。そのため、利用者は、内蔵カメラを、列車側面の行先表示器か、駅ホームの列車案内表示板に向けた後、シャッターを切ることになる。 Next, a guidance screen will appear stating, "For the train you are about to board, please take a picture of the destination indicator on the side of the train or the train information display board." Therefore, the user has to release the shutter after pointing the built-in camera at the destination display on the side of the train or the train information display board on the station platform.

また、このWebページには、hidden属性のinput タグに、行先駅と、列車種別(普通/準急/急行/快速急行/特急)と、出発駅と、発車時刻と、が隠しデータとして記載されている。更に、このWebページには、シャッター操作などに基づき機能するJavaScriptプログラムが記載されており、行先駅と列車種別と出発駅と発車時刻とは、内蔵カメラが撮影した撮影データと共に、例えばPOSTデータとして、管理サーバ3に送信されるようになっている。 In addition, on this Web page, the destination station, train type (normal / semi-express / express / rapid express / limited express), departure station, and departure time are described as hidden data in the input tag of the hidden attribute. There is. Furthermore, this Web page describes a JavaScript program that functions based on shutter operations, etc., and the destination station, train type, departure station, and departure time are, for example, POST data together with the shooting data taken by the built-in camera. , Is sent to the management server 3.

具体的な手法は、適宜であるが、HTML5(Hyper Text Markup Language version5 )では、携帯端末1の内蔵カメラの機能をJavaScriptから直接利用できるので、シャッターを切った瞬間の画像を、Webページの適当なタグ(例えばcanvasタグ)に貼り付け、他の情報と共に、管理サーバ3に向けてPOST送信すれば良い。 The specific method is appropriate, but in HTML5 (Hyper Text Markup Language version 5), the function of the built-in camera of the mobile terminal 1 can be used directly from JavaScript, so the image at the moment when the shutter is released is appropriate for the Web page. It may be pasted on a tag (for example, a canvas tag) and POSTed to the management server 3 together with other information.

以上、携帯端末1の内蔵ブラウザが、列車情報提供サーバ2をアクセスする構成について説明した。このような構成を採る場合には、大部分の処理がJavaScriptによって実行可能であるので、乗車判定アプリJUDGは、内蔵カメラの撮影条件を最適設定し、その後の操作を案内する処理だけを実行すれば足りることになる。 The configuration in which the built-in browser of the mobile terminal 1 accesses the train information providing server 2 has been described above. In the case of adopting such a configuration, most of the processing can be executed by JavaScript, so the boarding judgment application JUDG should only execute the processing to optimally set the shooting conditions of the built-in camera and guide the subsequent operations. It will be enough.

但し、列車情報提供サーバ2は、上記したJavaScriptプログラムを記載したWebページであって、且つ、アプリ名JUDGを記載したanchorタグで構成された「行先判定ボタン」を用意する必要がある。そこで、この煩雑さを解消するには、乗車判定アプリ自体にブラウザ機能を持たせ、乗車判定アプリJUDGが、列車情報提供サーバ2を直接アクセスする構成を採るのが好ましい。 However, the train information providing server 2 needs to prepare a "destination determination button" which is a Web page in which the above-mentioned JavaScript program is described and is composed of an anchor tag in which the application name JUDG is described. Therefore, in order to eliminate this complexity, it is preferable to provide the boarding determination application itself with a browser function so that the boarding determination application JUDG directly accesses the train information providing server 2.

このような後者の構成を採る場合には、列車情報提供サーバ2が、特別なWebページを用意する必要がなくなり、スキーム名をhttpとする通常のanchorタグを埋め込んだ「行先判定ボタン」を配置し、行先駅と列車種別と出発駅と発車時刻とを、例えばhidden属性で記載したWebページを配信することになる。この場合、乗車判定アプリJUDGは、初期設定処理だけでなく、利用者による「行先判定ボタン」のタップ操作に対応して、上記した一連の処理を全て実行することになる。 When adopting the latter configuration like this, the train information providing server 2 does not need to prepare a special Web page, and arranges a "destination determination button" in which a normal anchor tag whose scheme name is http is embedded. Then, for example, a Web page in which the destination station, the train type, the departure station, and the departure time are described by the hidden attribute will be delivered. In this case, the boarding determination application JUDG executes all of the above-mentioned series of processes in response to the tap operation of the "destination determination button" by the user as well as the initial setting process.

続いて、管理サーバ3について説明する。管理サーバ3は、原則として、乗車判定アプリJUDGが搭載された携帯端末1との交信を予定しており、携帯端末1から受けた情報(行先駅/列車種別/出発駅/発車時刻/撮影データ)を、適宜な作業領域WORKに一時記憶すると共に、撮影データについては、これを画像認識サーバ4に転送するよう構成されている。 Subsequently, the management server 3 will be described. As a general rule, the management server 3 plans to communicate with the mobile terminal 1 equipped with the boarding determination application JUDG, and the information received from the mobile terminal 1 (destination station / train type / departure station / departure time / shooting data). ) Is temporarily stored in an appropriate work area WORK, and the shooting data is transferred to the image recognition server 4.

この管理サーバ3の構成に対応して、画像認識サーバ4は、撮影データの受信に対応して画像認識プログラムRECOG が起動するよう構成されている。この画像認識プログラムRECOG は、転送されてきた撮影データから複数の特徴量を注出する注出アルゴリズムを有して構成されている。 Corresponding to the configuration of the management server 3, the image recognition server 4 is configured to start the image recognition program RECOG in response to the reception of shooting data. This image recognition program RECOG is configured to have a pouring algorithm that pours out a plurality of features from the transferred shooting data.

また、画像認識サーバ4は、本システムで転送されてくる可能性がある全ての行先表示器と、全ての案内表示板についての模範的な撮影データ(模範撮影データ)を予め受けている。そして、画像認識プログラムRECOG は、全ての模範撮影データから、特徴量の注出処理を完了しており、注出された特徴量は、一意の画像IDと共に、特徴パラメータテーブルTBL2に記憶されている。 Further, the image recognition server 4 receives in advance model shooting data (model shooting data) for all destination indicators and all guidance display boards that may be transferred by this system. Then, the image recognition program RECOG has completed the dispensing process of the feature amount from all the model shooting data, and the dispensed feature amount is stored in the feature parameter table TBL2 together with the unique image ID. ..

すなわち、列車側面に配置された行先表示器には、必ず、列車種別と行先駅が表示されており、画像認識サーバ4の画像認識プログラムRECOG は、列車種別と行先駅の全ての組み合わせについて、予め取得した模範撮影データから、必要な特徴量の注出を終えている。 That is, the train type and the destination station are always displayed on the destination display arranged on the side of the train, and the image recognition program RECOG of the image recognition server 4 preliminarily displays all combinations of the train type and the destination station. From the acquired model shooting data, the required feature quantity has been poured out.

この点は、駅ホームに設置されている案内表示板についても同様であり、画像認識サーバ4(画像認識プログラムRECOG )は、案内表示板に表示される可能性のある列車種別と行先駅の全ての組み合わせについて、予め取得した模範撮影データから、必要な特徴量の注出を終えている。 This point is the same for the guide display board installed on the station platform, and the image recognition server 4 (image recognition program RECOG) has all the train types and destination stations that may be displayed on the guide display board. Regarding the combination of, the required feature amount has been poured out from the model shooting data acquired in advance.

なお、カメラで撮影した画像には、通常、列車種別や行先駅だけでなく、行先表示器の輪郭画像や他の文字情報も映り込んでいる。しかし、画像認識サーバ4の画像認識プログラムRECOG は、転送されてきた判定対象の撮影データから注出した複数の特徴量と、特徴パラメータTBL2に登録されている特徴量とを、画像IDごとに順番に対比して、一致する特徴量が最大個数となる画像IDと、この画像IDを選択したことの正解率(スコア値)を特定して管理サーバ3に返信している。したがって、ターゲット情報(列車種別/行先駅)以外の情報は、事実上、無視されることになる。なお、正解率は、特徴量の一致個数などに基づいて算出される。 The image taken by the camera usually reflects not only the train type and destination station, but also the outline image of the destination display and other text information. However, the image recognition program RECOG of the image recognition server 4 sequentially orders a plurality of feature quantities extracted from the transferred imaging data to be determined and feature quantities registered in the feature parameter TBL2 for each image ID. In contrast to the above, the image ID in which the number of matching feature amounts is the maximum and the correct answer rate (score value) for selecting this image ID are specified and returned to the management server 3. Therefore, information other than the target information (train type / destination station) is effectively ignored. The correct answer rate is calculated based on the number of matching feature quantities and the like.

一方、管理サーバ3には、画像認識サーバ4の特徴パラメータテーブルTBL2に対応して、参照テーブルTBL1が、出発駅ごとに設けられている。この参照テーブルTBL1には、全ての行先表示器と、全ての案内表示板について、行先駅と、列車種別の文字情報が、特徴パラメータテーブルTBL1と同一の画像IDで特定されて記憶されている。また。この参照テーブルTBL1には、画像ID毎に、当該列車の発車時刻が一又は複数個記憶されている。
<乗車判定システム各部の動作>
On the other hand, the management server 3 is provided with a reference table TBL1 for each departure station corresponding to the feature parameter table TBL2 of the image recognition server 4. In this reference table TBL1, the destination station and the character information of the train type are specified and stored in the same image ID as the feature parameter table TBL1 for all the destination indicators and all the guide display boards. Also. In this reference table TBL1, one or a plurality of departure times of the train are stored for each image ID.
<Operation of each part of the boarding judgment system>

以上、図4に基づいて、乗車判定システムの構成を説明したので、システム利用者が乗車選択した列車の選択が正しいか否かを判定する一連の動作を説明する。 Since the configuration of the boarding determination system has been described above with reference to FIG. 4, a series of operations for determining whether or not the selection of the train selected by the system user is correct will be described.

なお、以下の説明では、(1)列車情報提供サーバ2は、スキーム名をhttpとする通常のanchorタグを埋め込んだ「行先判定ボタン」を配置し、行先駅/列車種別/出発駅/発車時刻をhidden属性で記載したWebページを配信し、(2)乗車判定アプリJUDGは、自らの内部処理としてブラウザ機能を発揮して、Webページを表示し操作する場合について説明する。また、以下の説明では、システム利用者は、駅ホームにおいて、自分が乗車しようとする列車を選択したタイミングであるとする。
[図4の第1ステップ~第3ステップ(携帯端末1の動作)]
In the following explanation, (1) the train information providing server 2 arranges a "destination determination button" in which a normal anchor tag whose scheme name is http is embedded, and the destination station / train type / departure station / departure time. The case where the Web page described with the hidden attribute is distributed, and (2) the boarding determination application JUDG exerts the browser function as its own internal processing to display and operate the Web page will be described. Further, in the following description, it is assumed that the system user selects the train to be boarded at the station platform.
[Steps 1 to 3 of FIG. 4 (operation of mobile terminal 1)]

利用者が、乗車判定アプリJUDGを起動させると、起動した乗車判定アプリJUDGは、内蔵カメラを最適撮影条件に設定した後、ブラウザ機能を発揮する。すなわち、初期設定処理後は、任意のHTTPサーバがアクセス可能となるので、システム利用者は、列車情報提供サーバ2をアクセスして、自分が今いる出発駅と、自分が行きたい行先駅に関するWebページを取得して、図5のような列車案内画面をアプリ内に表示させる。 When the user activates the boarding judgment application JUDG, the activated boarding judgment application JUDG exerts the browser function after setting the built-in camera to the optimum shooting conditions. That is, since any HTTP server can be accessed after the initial setting process, the system user can access the train information providing server 2 and access the Web regarding the departure station where he / she is and the destination station he / she wants to go to. Acquire the page and display the train information screen as shown in FIG. 5 in the application.

そして、出発時間などを確認した上で、システム利用者が「行先判定ボタン」をタップすると、内蔵カメラが起動して、「列車側面の行先表示器か、又は、駅ホームの列車案内表示板を撮影して下さい。」との案内画面が表示される。この場合、内蔵カメラの表示画面には、行先表示器や列車案内表示板に対応する縦横比を有する、横長のフレーム枠が表示されるようになっている。 Then, after confirming the departure time, etc., when the system user taps the "destination determination button", the built-in camera is activated and "the destination indicator on the side of the train or the train information display board on the station platform is displayed. Please take a picture. "Is displayed on the guidance screen. In this case, the display screen of the built-in camera displays a horizontally long frame having an aspect ratio corresponding to the destination display and the train guide display board.

そこで、利用者は、内蔵カメラを行先表示器か列車案内表示板に向け、横長のフレーム枠に、車種と行先駅を捉えたタイミングで、撮影シャッターを押すことになる。 Therefore, the user points the built-in camera at the destination display or the train guide display board, and presses the shooting shutter at the timing when the vehicle type and the destination station are captured in the horizontally long frame.

すると、このシャッター操作に対応して、乗車判定アプリJUDGは、内蔵カメラが撮影した撮影データを、Webページにhidden属性で記載されている行先駅/列車種別/出発駅/発車時刻と共に、管理サーバ3にPOST送信する。
[図4の第4ステップ(管理サーバ3の動作)]
Then, in response to this shutter operation, the boarding judgment application JUDG records the shooting data taken by the built-in camera together with the destination station / train type / departure station / departure time described in the hidden attribute on the Web page, as well as the management server. POS is sent to 3.
[Fourth step in FIG. 4 (operation of management server 3)]

先に説明した通り、携帯端末1からPOSTデータを受けた管理サーバ3は、行先駅/列車種別/出発駅/発車時刻を、作業領域WORKに一時記憶する。また、管理サーバ3は、撮影データを、画像認識サーバ4に転送して、画像認識サーバ4からの返信を待つ。なお、携帯端末1から受けた出発駅に基づいて、出発駅に対応する参照テーブルTBL1が特定される。
[図4の第5ステップ(画像認識サーバ4の動作)]
As described above, the management server 3 that has received the POST data from the mobile terminal 1 temporarily stores the destination station / train type / departure station / departure time in the work area WORK. Further, the management server 3 transfers the shooting data to the image recognition server 4 and waits for a reply from the image recognition server 4. The reference table TBL1 corresponding to the departure station is specified based on the departure station received from the mobile terminal 1.
[Fifth step in FIG. 4 (operation of the image recognition server 4)]

画像認識サーバ4は、管理サーバ3から受信した撮影データについて特徴量を注出すると共に、注出した特徴量を、特徴パラメータテーブルTBL2に記載の特徴量と順次対比して、一致する特徴量が最大個数となる画像IDと、この画像IDを選択したことの正解率(スコア値)を特定して管理サーバ3に返送する。 The image recognition server 4 dispenses a feature amount for the shooting data received from the management server 3, and sequentially compares the dispensed feature amount with the feature amount described in the feature parameter table TBL2, and the matching feature amount is obtained. The maximum number of image IDs and the correct answer rate (score value) for selecting this image ID are specified and returned to the management server 3.

ここで、正解率は、画像認識サーバ4に転送された撮影データと、画像IDで特定される模範撮影データとの類似度合いを示している。したがって、撮影画像が不鮮明で、特徴量を注出できない場合や、転送された撮影データと類似する模範撮影データが検出されない場合は、正解率が0となる。 Here, the correct answer rate indicates the degree of similarity between the shooting data transferred to the image recognition server 4 and the model shooting data specified by the image ID. Therefore, if the captured image is unclear and the feature amount cannot be poured out, or if the model captured data similar to the transferred captured data is not detected, the correct answer rate becomes 0.

なお、管理サーバ3に返信される画像IDと正解率は、必ずしも一組である必要はなく、正解率が所定レベル以上であれば、複数組の画像ID及び正解率が、管理サーバ3に返送される。
[図4の第6ステップ(管理サーバ3の動作)]
The image ID and the correct answer rate returned to the management server 3 do not necessarily have to be one set, and if the correct answer rate is at a predetermined level or higher, the plurality of sets of image IDs and the correct answer rate are returned to the management server 3. Will be done.
[Sixth step in FIG. 4 (operation of management server 3)]

待機状態の管理サーバ3が、画像認識サーバ4から画像ID及び正解率を受けると、管理サーバ3は、出発駅に対応する参照テーブルTBL1を参照して、画像IDに基づいて、行先駅と列車種別を特定する。 When the management server 3 in the standby state receives the image ID and the correct answer rate from the image recognition server 4, the management server 3 refers to the reference table TBL1 corresponding to the departure station, and based on the image ID, the destination station and the train. Specify the type.

そして、参照テーブルTBL1から注出される行先駅と、列車種別が、作業領域WORKに一時記憶されている行先駅と列車車種に一致するか否かを判定する。この判定結果には、G判定(a) :正解率の高い画像IDを受け、それが一時記憶中の行先及び種別と一致する場合と、G判定(b) :正解率の高い画像IDを受けたにも拘わらず、一時記憶中の行先や種別と一致しない場合と、NG判定(c) :正解率=0の判定結果を受けた場合や、正解率の低い画像IDしか受信できない場合と、に区分される。 Then, it is determined whether or not the destination station poured out from the reference table TBL1 and the train type match the destination station and the train vehicle type temporarily stored in the work area WORK. In this judgment result, G judgment (a): an image ID with a high correct answer rate is received and it matches the destination and type in temporary storage, and G judgment (b): an image ID with a high correct answer rate is received. Nevertheless, when it does not match the destination or type in temporary storage, when the judgment result of NG judgment (c): correct answer rate = 0 is received, or when only the image ID with low correct answer rate can be received. It is classified into.

ここで、G判定(a) やG判定(b) の場合には、管理サーバ3は、発車時刻の正当性を確認した上で、携帯端末1に認識結果を返信する。返信内容は、例えば「はい、その電車は、特急××駅行きです。・・・」、又は、「その電車ではありません。他の電車を探してください。」と表示したWebページとなる。なお、このWebページには、ユーザが撮影した撮影データと、管理サーバ3から受けた画像IDに基づいて特定される模範撮影データとが対比して携帯端末1に表示される。 Here, in the case of the G determination (a) or the G determination (b), the management server 3 returns the recognition result to the mobile terminal 1 after confirming the validity of the departure time. The content of the reply will be, for example, a web page displaying "Yes, that train is bound for the limited express XX station ...." or "This is not the train. Please look for another train." In this Web page, the shooting data taken by the user and the model shooting data specified based on the image ID received from the management server 3 are displayed in comparison on the mobile terminal 1.

但し、NG判定(c) の場合には、以下に説明する画像修復処理と反射除去処理を、この順番で実行した上で、再度、第4ステップの処理に戻り、画像認識サーバ4に補正撮影データを送信する。 However, in the case of the NG determination (c), after executing the image restoration processing and the reflection removal processing described below in this order, the process returns to the fourth step again, and the image recognition server 4 performs correction shooting. Send the data.

そして、画像認識サーバ4から返信された画像IDが、管理サーバ3に一時記憶されている情報に一致するか否かを判定し(第5ステップ)、G判定(a) か、G判定(b) であれば、対応する回答を携帯端末1に返信することになる(第6ステップ)。 Then, it is determined whether or not the image ID returned from the image recognition server 4 matches the information temporarily stored in the management server 3 (fifth step), and whether it is a G determination (a) or a G determination (b). ), The corresponding answer is returned to the mobile terminal 1 (sixth step).

一方、補正撮影データについても、再度、NG判定(c) の場合には、「画像が不鮮明で判定できません。」との回答を携帯端末1に返信することになる(第6ステップ)。
<画像修復処理(A)と反射除去処理(B)>
On the other hand, regarding the corrected shooting data, in the case of NG judgment (c) again, the answer "The image is unclear and cannot be judged" is returned to the mobile terminal 1 (sixth step).
<Image restoration processing (A) and reflection removal processing (B)>

続いて、管理サーバ3が、画像認識サーバ4から、一回目のNG判定(c) を受けた後の動作について説明する。NG判定(c) を受けた管理サーバ3は、以下に説明する画像修復処理(A)と、反射除去処理(B)を、この順番に実行して、補正撮影データを生成する。 Subsequently, the operation after the management server 3 receives the first NG determination (c) from the image recognition server 4 will be described. The management server 3 that has received the NG determination (c) executes the image restoration process (A) and the reflection removal process (B) described below in this order to generate corrected shooting data.

先ず、画像修復処理(A)は、蛍光灯などの反射光により、本来の文字情報が潜在化した場合に、この欠損部分の文字画像情報を、その周りの画像情報に基づいて補完する処理を意味する。
[画像修復(A)第1処理]
First, in the image restoration process (A), when the original character information is latent due to reflected light from a fluorescent lamp or the like, the character image information of the defective portion is complemented based on the surrounding image information. means.
[Image restoration (A) 1st processing]

画像修復処理(A)では、管理サーバ3は、作業領域WORKに一時保存されている撮影画像データから色情報を削除するため、撮影画像データをグレースケール化する。 In the image restoration process (A), the management server 3 grayscales the captured image data in order to delete the color information from the captured image data temporarily stored in the work area WORK.

グレースケール化の具体的な手法は、適宜に選択されるが、本実施例では、コンピュータビジョン向けライブラリOpen CV (Open Source Computer Vision Library )のDecolor 関数を、プログラミング言語Pythonの動作環境において使用した。なお、以下の説明は、全て、プログラミング言語Pythonの動作環境における説明である。 The specific method of grayscale is appropriately selected, but in this example, the Decolor function of the Open CV (Open Source Computer Vision Library) library for computer vision is used in the operating environment of the programming language Python. The following explanations are all explanations in the operating environment of the programming language Python.

Decolor 関数を使用する場合、Pythonでは、Grayscale.color_boost = cv.deColor(src) の書式となる。ここで、撮影画像がN個のピクセルで構成されている場合、cv.deColor関数の第1引数src は、要素数3*Nの配列Photo(R,G,B)を意味し、この配列には、RGBデータが、各1バイト長で記憶されている。 When using the Decolor function, in Python, the format is Grayscale.color_boost = cv.deColor (src). Here, when the captured image is composed of N pixels, the first argument src of the cv.deColor function means an array Photo (R, G, B) with 3 * N elements, and this array Is stored with RGB data having a length of 1 byte each.

一方、戻り値は、要素数Nの配列GS(i) であり、各ピクセルの濃淡情報(Gray Scale値)が1バイト長で格納される。なお、値が大きいほど明るく、小さいほど暗く、0は真っ黒、255は真っ白を意味する。
[画像修復(A)第2処理]
On the other hand, the return value is an array GS (i) having the number of elements N, and the grayscale information (Gray Scale value) of each pixel is stored in a byte length. The larger the value, the brighter the value, the smaller the value, the darker the value, 0 means pure black, and 255 means pure white.
[Image restoration (A) Second process]

次に、画像修復第1処理で求めたGray Scale値(以下、GS値と略す)について、所定の閾値TH1 より明るいピクセルを抽出する。具体的には、Open CV のinRange 関数を使用するが、Pythonでは、dst = cv.inRange(src, lowerb, upperb) の書式となる。 Next, with respect to the Gray Scale value (hereinafter abbreviated as GS value) obtained in the first image restoration process, pixels brighter than a predetermined threshold value TH1 are extracted. Specifically, the OpenCV inRange function is used, but in Python, the format is dst = cv.inRange (src, lowerb, upperb).

ここで、inRange 関数の第1引数src は、画像修復第1処理で算出した、要素数Nの結果配列GS(i) であって、ピクセル毎に、そのGS値が1バイト長で記憶されている。また、第2引数lowerbと第3引数upperbは、各々、スカラー値であって、ここでは、lowerb = 0、upperb = TH1としている。 Here, the first argument src of the inRange function is the result array GS (i) of the number of elements N calculated in the first image restoration process, and the GS value is stored in 1 byte length for each pixel. There is. Further, the second argument lowerb and the third argument upperb are scalar values, respectively, and here, lowerb = 0 and upperb = TH1.

一方、戻り値dst は、要素数Nの結果配列を示しており、この結果配列DST(i)には、255又は0が記憶される。具体的には、明るいピクセル(GS値>TH1)は0となり、そうでない、0≦GS値≦TH1のピクセルは、255となる。この結果配列DST(i)は、反射光による有効情報の欠損領域を0で示すことになる。通常、この欠損領域は、蛍光灯の発光である場合が多く、そのような場合は、欠損領域は、所定の幅を有した直線帯として形成される。
[画像修復(A)第3処理]
On the other hand, the return value dst indicates a result array having the number of elements N, and 255 or 0 is stored in the result array DST (i). Specifically, the bright pixel (GS value> TH1) is 0, and the other pixel with 0 ≦ GS value ≦ TH1 is 255. As a result, the array DST (i) indicates the region where the valid information is missing due to the reflected light by 0. Usually, this defective region is often the light emission of a fluorescent lamp, and in such a case, the defective region is formed as a straight band having a predetermined width.
[Image restoration (A) Third process]

続いて、欠損部分の画像情報を、その回りの画像情報から補完する。具体的には、Open CV のinpaint 関数を使用して欠損領域のピクセル情報(RGB各8ビット)を、周囲のピクセル情報から補完する。Pythonでは、例えば、st = cv.inpaint(src, Mask, Radius, flags) の書式となる。 Subsequently, the image information of the defective portion is complemented from the image information around it. Specifically, the inpaint function of Open CV is used to complement the pixel information of the missing area (8 bits each for RGB) from the surrounding pixel information. In Python, for example, the format is st = cv.inpaint (src, Mask, Radius, flags).

ここで、第1引数src は、撮影したピクセル数Nの撮影画像データを記憶する要素数3*Nの配列Photo(R,G,B)であり、RGBデータが、各1バイト長で記憶されている。第2引数Maskは、この実施例では、画像修復第2処理で算出したマスク配列DST(i)であって、要素数がNの配列である。先に説明した通り、マスク配列DST(i)の要素において、0は、修復されるべき箇所(欠損領域)を示している。 Here, the first argument src is an array Photo (R, G, B) having 3 * N elements for storing captured image data of the number of captured pixels N, and RGB data is stored with a length of 1 byte each. ing. In this embodiment, the second argument Mask is a mask array DST (i) calculated in the second image restoration process, and is an array having N elements. As described above, in the element of the mask sequence DST (i), 0 indicates a portion (defective region) to be repaired.

一方、第3引数Radiusは、修復されるべき箇所を含んだ近傍の円形領域の半径であり、欠損領域の幅に基づいて適宜に決定される。また、第4引数flags は、補完アルゴリズムを特定するフラグ値で、Navier-Stokes に基づく手法か、Alexandru Telea による手法かが特定可能となっている。なお、この実施例では、Alexandru Telea による手法を指定した。 On the other hand, the third argument Radius is the radius of the circular region in the vicinity including the portion to be repaired, and is appropriately determined based on the width of the defective region. In addition, the fourth argument flags is a flag value that specifies the completion algorithm, and it is possible to specify whether the method is based on Navier-Stokes or Alexandru Telea. In this example, the method by Alexandru Telea was specified.

また、結果配列dst は、入力配列src と同一サイズ、同一タイプの配列Repair(R, G, B) であり、画像修復後のRGBデータが保存される。以上の処理の結果、蛍光灯などの反射光の部分の文字情報が、ある程度復元される。図6(a)は、欠損部分を補完したカラー画像を示しており、左上部に表示されている反射光の傾斜ラインと、右下部に表示される白色領域について、各々の発光が有意に緩和されている。
[反射除去(B)第1処理]
The result array dst is an array Repair (R, G, B) of the same size and type as the input array src, and the RGB data after image restoration is saved. As a result of the above processing, the character information of the reflected light portion such as the fluorescent lamp is restored to some extent. FIG. 6A shows a color image in which the defective portion is complemented, and the emission of each of the inclined line of the reflected light displayed in the upper left part and the white area displayed in the lower right part is significantly reduced. Has been done.
[Reflection removal (B) first treatment]

続く、反射除去処理では、画像修復処理(A)を終えた画像データ(以下、修復画像データという)の各ピクセルについて、先ず、RGB各8ビットデータからHSV色空間のH,S,Vを算出する。ここで、HSV色空間とは、あるピクセルの色彩を、「色相(Hue )」「彩度(Saturation)」「明度(Value )」の3つの組み合わせで表現する手法である。H,S,V値の算出手法は、特に限定されないが、ここでは、Open CV のcvtColor関数を使用し、例えば、Pythonでは、dst = cv.cvtColor(src, code)の書式となる。 In the subsequent reflection removal processing, H, S, and V of the HSV color space are first calculated from each of the 8-bit RGB data for each pixel of the image data (hereinafter referred to as the repaired image data) that has completed the image restoration processing (A). do. Here, the HSV color space is a method of expressing the color of a certain pixel by three combinations of "hue", "saturation", and "value". The method for calculating the H, S, and V values is not particularly limited, but here, the cvtColor function of Open CV is used, and in Python, for example, the format is dst = cv.cvtColor (src, code).

修復画像データがN個のピクセルで構成されている場合、上記のPython書式において、cv.cvtColor 関数の第1引数src で指定する入力配列SRC は、画像修復処理(A)の結果配列Repair(R, G, B) である。 When the repair image data is composed of N pixels, the input array SRC specified by the first argument src of the cv.cvtColor function in the above Python format is the result array Repair (R) of the image repair process (A). , G, B).

この結果配列Repair(R, G, B) には、ピクセル毎のRGBデータが、B→G→Rの順番で記憶されている。なお、第2引数codeによって、実行すべき処理が、HSV色空間への変換であることを指示する。そして、戻り値dst は、要素数3*Nの結果配列であり、cvtColor関数の処理によって、結果配列DST(i)には、H値とS値とV値がピクセル毎に記憶されることになる。 As a result, RGB data for each pixel is stored in the array Repair (R, G, B) in the order of B → G → R. The second argument code indicates that the process to be executed is conversion to the HSV color space. The return value dst is a result array with 3 * N elements, and the H value, S value, and V value are stored pixel by pixel in the result array DST (i) by the processing of the cvtColor function. Become.

そこで、本実施例では、次に、反射除去第1処理の結果配列DST(i)に基づいて、N個のピクセルのV値を記憶した要素数NのV値配列Value(i)を生成する。
[反射除去(B)第2処理]
Therefore, in this embodiment, next, based on the result array DST (i) of the first reflection removal process, a V value array Value (i) having the number of elements N storing the V values of N pixels is generated. ..
[Reflection removal (B) second treatment]

次に、反射除去第1処理で生成したN個の明度値についてのV値配列Value(i)について、全ピクセルに対する出現頻度のヒストグラムを作成し、明度(Value )を示すV値について、適宜な閾値TH2を特定する。 Next, for the V value array Value (i) for the N lightness values generated in the first reflection removal process, a histogram of the appearance frequency for all pixels is created, and the V value indicating the lightness (Value) is appropriate. The threshold TH2 is specified.

図7は、撮影画像と、V値の出現頻度ヒストグラムを図示したものである。なお、ここでは、撮影画像の全体を表示しているが、実際の運用では、横長のフレーム枠の外側は、全て黒色に処理される。 FIG. 7 shows a captured image and a histogram of the appearance frequency of the V value. Although the entire captured image is displayed here, in actual operation, the outside of the horizontally long frame is all blackened.

何れにしても、反射除去処理に供される画像の場合には、図示のように、V値=0の出現頻度が圧倒的であり、その他のV値の出現頻度は極めて低いが、0を超えるV値(>0)において、何れかのV値で出現頻度がピークとなる。そこで、本実施例では、ピーク値を示すV値より上側のV値であって、例えば、ピーク値の70%位置のV値を閾値TH2として選択することにする。
[反射除去(B)第3処理]
In any case, in the case of the image to be subjected to the reflection removal processing, as shown in the figure, the appearance frequency of V value = 0 is overwhelming, and the appearance frequency of other V values is extremely low, but 0 is set. When the V value exceeds (> 0), the appearance frequency peaks at any V value. Therefore, in this embodiment, the V value above the V value indicating the peak value, for example, the V value at the 70% position of the peak value is selected as the threshold value TH2.
[Reflection removal (B) 3rd process]

次に、反射除去第3処理では、反射除去第2処理で特定した閾値TH2より高い明度のピクセルを抽出する。例えば、Open CV のinRange 関数を使用するが、Pythonでは、dst = cv.inRange(src, lowerb, upperb) の書式となる。 Next, in the reflection removal third process, pixels having a brightness higher than the threshold value TH2 specified in the reflection removal second process are extracted. For example, we use the OpenCV inRange function, but in Python it has the format dst = cv.inRange (src, lowerb, upperb).

ここで、第1引数src は、反射除去第2処理で得られたV値についてのV値配列Value(i)である。また、第2引数lowerbと第3引数upperbは、各々、HSVに関するスカラー値であって、ここでは、lowerb = TH2、upperb = 255としている。 Here, the first argument src is a V value array Value (i) for the V value obtained in the second reflection removal process. Further, the second argument lowerb and the third argument upperb are scalar values related to HSV, respectively, and here, lowerb = TH2 and upperb = 255.

一方、戻り値dst は、要素数Nの結果配列Mask(i) を示しており、この結果配列Mask(i) には、255又は0が記憶される。具体的には、高明度(TH2≦V値≦255)のピクセルは、白(255)となり、そうでない、V値<TH2の通常ピクセルは、黒(0)となる。この処理は、N個のピクセルについて、各ピクセルを採用するか否かを、結果配列Mask(i) に特定する処理に他ならない。
[反射除去(B)第4処理]
On the other hand, the return value dst indicates the result array Mask (i) having the number of elements N, and 255 or 0 is stored in the result array Mask (i). Specifically, a pixel with high brightness (TH2 ≦ V value ≦ 255) is white (255), and a normal pixel with V value <TH2 is black (0). This process is nothing but a process of specifying whether or not to adopt each pixel for N pixels in the result array Mask (i).
[Reflection removal (B) 4th process]

続いて、反射除去第3処理で高明度ピクセルと判定されたピクセルについて、画像修復処理(A)の結果配列Repair(R, G, B) から、RGB画像データを抽出する。ここでは、例えば、Open CV のbitwise_and 関数を使用するが、Pythonでは、dst = cv.bitwise_and(src1, src2, dst, mask) の書式となる。 Subsequently, RGB image data is extracted from the result array Repair (R, G, B) of the image repair process (A) for the pixels determined to be high-brightness pixels in the reflection removal third process. Here, for example, the OpenCV bitwise_and function is used, but in Python, the format is dst = cv.bitwise_and (src1, src2, dst, mask).

ここで、第1引数src1と第2引数src2は、反射除去第1処理で使用した配列、つまり、画像修復(A)による修復画像RGBデータを保存した修復画像配列Repair(R, G, B) となる。また、第3引数dst は、出力配列を意味し、要素数3*N個の配列Take(R, G, B) を示している。 Here, the first argument src1 and the second argument src2 are the arrays used in the first reflection removal process, that is, the restoration image array Repair (R, G, B) in which the restoration image RGB data by the image restoration (A) is saved. It becomes. The third argument dst means an output array and indicates an array Take (R, G, B) having 3 * N elements.

一方、第4引数maskは、マスク配列を意味する。具体的には、反射除去第3処理で算出された要素数Nの結果配列MASK(i) を使用する。このbitwise_and 関数では、MASK(i) ≠0の場合にだけ、dst(i) = src1(i)Λsrc2(i) の論理演算が実行される。なお、Λは、AND演算を意味する。 On the other hand, the fourth argument mask means a mask array. Specifically, the result array MASK (i) of the number of elements N calculated in the reflection removal third process is used. In this bitwise_and function, the logical operation of dst (i) = src1 (i) Λsrc2 (i) is executed only when MASK (i) ≠ 0. Note that Λ means an AND operation.

先に説明した通り、本実施例では、マスク配列MASK(i) の各要素は、高明度(TH2≦V値≦255)のピクセルについて255となり、そうでないピクセルについて0となっている。したがって、マスク配列MASK(i) の要素が255である高明度のピクセルに対してだけ、以下の処理が実行され、修復画像RGBデータを保存した修復画像配列Repair (R, G, B)が、出力配列Take(R, G, B) にコピーされることなる。具体的な処理内容を示すと、Reject(R, G, B) = Repair(R, G, B) Λ Repair(R, G, B)となる。 As described above, in this embodiment, each element of the mask array MASK (i) is 255 for pixels with high brightness (TH2 ≦ V value ≦ 255) and 0 for pixels that are not. Therefore, the following processing is executed only for the high-brightness pixels in which the element of the mask array MASK (i) is 255, and the repair image array Repair (R, G, B) that stores the repair image RGB data is It will be copied to the output array Take (R, G, B). The specific processing content is Reject (R, G, B) = Repair (R, G, B) Λ Repair (R, G, B).

一方、マスク配列MASK(i) の要素が(0)となる通常明度のピクセルに対しては、上記のAND 演算が実行されない。すなわち、結果配列Take(R, G, B) の要素は、初期状態(0, 0, 0 )のままとなるので、結局、結果配列Take(R, G, B) には、高明度の重要部分だけが保存されることになる。 On the other hand, the above AND operation is not executed for the pixel of normal brightness in which the element of the mask array MASK (i) is (0). That is, the elements of the result array Take (R, G, B) remain in the initial state (0, 0, 0), so after all, high brightness is important for the result array Take (R, G, B). Only the part will be saved.

鉄道用の列車案内表示板において、「発車時刻」、「電車の車種」、「目的駅名」は、その重要性に基づき、他の部分より明るく表示されている。そして、反射除去処理で、高明度の部分だけを切り出すことで、映り込みが緩和され、必要部分のみが抽出される。すなわち、反射光の映り込みによって何を表す画像が分からなかった画像が、しっかりと、行先駅や種別を表示した画像に変換されることになる。図6(b)は、反射除去処理の処理結果を示しており、重要部分の文字情報がより鮮明化されていることが確認される。 On the train information display board for railways, the "departure time", "train model", and "destination station name" are displayed brighter than other parts based on their importance. Then, by cutting out only the high-brightness portion by the reflection removing process, the reflection is alleviated and only the necessary portion is extracted. That is, an image in which the image representing what is not known due to the reflection of the reflected light is firmly converted into an image displaying the destination station and the type. FIG. 6B shows the processing result of the reflection removal processing, and it is confirmed that the character information of the important portion is made clearer.

なお、図6(b)は、反射除去処理の効果を対比的に示すため、列車案内表示板が、敢えて、3行にわたって撮影されているが(行先が三カ所)、実際の運用では、カメラに横長のフレーム枠を表示することで、単一の行先駅しか取得されない。 In addition, in FIG. 6B, in order to contrast the effect of the reflection removal processing, the train guide display board is intentionally photographed over three lines (three destinations), but in actual operation, the camera is used. By displaying a horizontally long frame frame, only a single destination station can be acquired.

以上の通り、画像修復処理(A)と反射除去処理(B)を実行することで、反射除去処理第3処理の結果配列Take(R, G, B) には、文字情報が修復され、且つ、反射光が緩和された補正撮影データが保存されることになる。そこで、管理サーバ3は、補正撮影データを、画像認識サーバ4に送信して、判定結果を待つことになる(図4の第4ステップ)。 As described above, by executing the image restoration process (A) and the reflection removal process (B), the character information is restored in the result array Take (R, G, B) of the reflection removal process third process, and the character information is restored. , The corrected shooting data in which the reflected light is relaxed will be saved. Therefore, the management server 3 transmits the corrected shooting data to the image recognition server 4 and waits for the determination result (fourth step in FIG. 4).

そして、管理サーバ3は、画像認識サーバ4から返信された画像IDが、管理サーバ3に一時記憶されている情報に一致するか否かを判定し、G判定(a) か、G判定(b) であれば、対応する回答を携帯端末1に返信することになる。 Then, the management server 3 determines whether or not the image ID returned from the image recognition server 4 matches the information temporarily stored in the management server 3, and determines whether it is a G determination (a) or a G determination (b). ), The corresponding answer is returned to the mobile terminal 1.

一方、補正撮影データについても、NG判定(c) の場合には、「画像が不鮮明で判定できません。」との回答を携帯端末1に返信することになる。 On the other hand, regarding the corrected shooting data, in the case of the NG judgment (c), the answer "The image is unclear and cannot be judged" is returned to the mobile terminal 1.

以上、図4に示す乗車判定システムについて詳細に説明したが、ここまでの説明は、携帯端末1に乗車判定アプリJUDGがインストールされていることを前提にしている。しかし、乗車判定アプリJUDGがインストールされていない携帯端末1では、JavaScriptプログラムによって、内蔵カメラを最適に設定することは、HTML5ではできない。 The boarding determination system shown in FIG. 4 has been described in detail above, but the description so far is based on the premise that the boarding determination application JUDG is installed on the mobile terminal 1. However, in the mobile terminal 1 in which the boarding determination application JUDG is not installed, it is not possible to optimally set the built-in camera by the JavaScript program in HTML5.

そこで、そのような場合に備えて、乗車判定アプリJUDGがインストールされていない携帯端末に対しては、内蔵カメラを連写モードで動作させるか、動画モードで動作させるのが好ましい。 Therefore, in preparation for such a case, it is preferable to operate the built-in camera in the continuous shooting mode or the moving image mode for the mobile terminal in which the boarding determination application JUDG is not installed.

具体的な手法は、適宜であるが、例えば、「行先判定ボタン」のタップ操作に対応して、列車情報提供サーバ2が配信するWebページに、注意書きとして、「乗車判定アプリを使用されない場合は、連写モードか動画モードで行先表示器/列車案内表示板を撮影して下さい。」と表示することが考えられる。 The specific method is appropriate, but for example, in response to the tap operation of the "destination determination button", the "boarding determination application is not used" as a cautionary note on the Web page distributed by the train information providing server 2. Please take a picture of the destination display / train information display board in continuous shooting mode or movie mode. "

次に、この注意書きに対応してシステム利用者がカメラを操作した場合を説明する。管理サーバ3が、撮影画像データを連続的に受信する場合や、動画フレームデータを受信する場合には、それらを全て作業領域WORKに一時保存すると共に、連写画像の適当枚、又は、動画フレーム画像の複数枚を重ね合わせて、撮影画像データとして、画像認識サーバ4に転送する(第4ステップの処理)。 Next, a case where the system user operates the camera corresponding to this cautionary note will be described. When the management server 3 continuously receives the captured image data or receives the moving image frame data, all of them are temporarily stored in the work area WORK, and an appropriate number of continuous shot images or a moving image frame is used. A plurality of images are superimposed and transferred to the image recognition server 4 as captured image data (process in the fourth step).

なお、この第4ステップの処理は、携帯端末1から動画や連写画像が送信される第3ステップの処理に連続して実行しても良いし、画像認識サーバ4から、NG判定(c) を受けた後、つまり、第5ステップに続いて実行しても良い。 The process of the fourth step may be continuously executed in the process of the third step in which the moving image or the continuous shot image is transmitted from the mobile terminal 1, or the image recognition server 4 may perform an NG determination (c). It may be executed after receiving, that is, following the fifth step.

連写画像の1枚や、動画から切り出した1枚のフレーム画像によって、画像認識サーバ4から、G判定(a) か、G判定(b) を受ける可能性は、低くないので、好適には、後者の手順とすべきである。すなわち、画像認識サーバ4から、NG判定(c) を受けた後に限り、複数枚の画像データを重ね合わせて、撮影画像データとして、画像認識サーバ4に再送すべきである。 It is not unlikely that the image recognition server 4 will receive a G-judgment (a) or a G-judgment (b) from one of the continuous shot images or one frame image cut out from the moving image. , The latter procedure should be used. That is, only after receiving the NG determination (c) from the image recognition server 4, a plurality of image data should be superposed and retransmitted to the image recognition server 4 as captured image data.

以上、本発明の実施例について、詳細に説明したが、具体的な記載内容は、何ら本発明を限定せず、適宜に変更可能である。特に、プログラミング言語Pythonの動作環境を前提にする必要は全くない。但し、Open CV の関数を使用することは、プログラムを簡素化する上で効果的である。 Although the embodiments of the present invention have been described in detail above, the specific description contents are not limited to the present invention and can be appropriately changed. In particular, there is no need to assume the operating environment of the programming language Python. However, using Open CV functions is effective in simplifying the program.

また、上記の実施例では、乗車判定アプリJUDGがインストールされていない携帯端末について、連写モードや動画モードで動作させる構成を説明したが、乗車判定アプリJUDGがインストールされている携帯端末についても、同様の動作モードを設けても良い。 Further, in the above embodiment, the configuration for operating the mobile terminal on which the boarding determination application JUDG is not installed is described in the continuous shooting mode or the video mode, but the mobile terminal on which the boarding determination application JUDG is installed is also described. A similar operation mode may be provided.

また、上記の説明では、鉄道車両について説明したが、バス、飛行機、船、乗合タクシーなどへの搭乗時の判定処理にも、ほぼ同じ構成を採用することができる。また、シャッター速度Sその他のカメラ設定値について、具体的に記載したが、一例を記載したに過ぎず、特に本発明を限定するものではない。 Further, in the above description, although the railway vehicle has been described, almost the same configuration can be adopted for the determination process at the time of boarding a bus, an airplane, a ship, a shared taxi, or the like. Further, although the shutter speed S and other camera setting values have been specifically described, only an example is described, and the present invention is not particularly limited.

ところで、上記の実施例では、システム利用者が、駅ホームにおいて列車情報提供サーバ2をアクセスする場合を説明したが、何ら限定されない。例えば、列車情報提供サーバ2をアクセスして、必要情報(行先駅/列車種別/出発駅/発車時刻)を管理サーバ3に送信する第1処理と、駅ホームにおいて、列車側面の行先表示器か、又は、駅ホームの列車案内表示板を撮影して、管理サーバ3に撮影画像データを送信する第2処理に、有意な時間差を設けても良い。 By the way, in the above embodiment, the case where the system user accesses the train information providing server 2 at the station platform has been described, but the present invention is not limited thereto. For example, the first process of accessing the train information providing server 2 and transmitting necessary information (destination station / train type / departure station / departure time) to the management server 3 and the destination indicator on the side of the train at the station platform. Alternatively, a significant time difference may be provided in the second process of photographing the train information display board of the station platform and transmitting the photographed image data to the management server 3.

図8は、このような実施例を説明する図面である。図8には、列車情報提供サーバ2をアクセスして、必要情報(行先駅/列車種別/出発駅/発車時刻)を管理サーバ3に送信する第1処理が、第1ステップ~第3ステップとして示されている。この処理は、例えば、乗車予定の前日などに、ホテルその他において実行される。 FIG. 8 is a drawing illustrating such an embodiment. In FIG. 8, the first process of accessing the train information providing server 2 and transmitting necessary information (destination station / train type / departure station / departure time) to the management server 3 is as the first step to the third step. It is shown. This process is executed at a hotel or the like, for example, the day before the scheduled boarding.

一方、管理サーバ3は、第1処理で送信された必要情報(行先駅/列車種別/出発駅/発車時刻)を、一意のユーザIDと共に、適宜な作業領域WORKに保存する。なお、作業領域WORKを適正に管理するため、受付日時も合わせて保存する。 On the other hand, the management server 3 stores the necessary information (destination station / train type / departure station / departure time) transmitted in the first process in an appropriate work area WORK together with a unique user ID. In addition, in order to properly manage the work area WORK, the reception date and time are also saved.

そして、管理サーバ3は、前記したユーザIDを、「必要情報を受け取った旨」を表示するWebページと共に、携帯端末1に返送する(図8の第4ステップ)。そして、このユーザIDは、例えば、クッキーDATAとして、携帯端末1に保存される。 Then, the management server 3 returns the above-mentioned user ID to the mobile terminal 1 together with a Web page displaying "required information has been received" (fourth step in FIG. 8). Then, this user ID is stored in the mobile terminal 1 as, for example, a cookie DATA.

次に、所定時間経過後、駅ホームにおいて、システム利用者が、携帯端末の乗車判定アプリJUDGを起動すると、起動した乗車判定アプリJUDGは、内蔵カメラを最適撮影条件に設定した後、ブラウザ機能と内蔵カメラを起動させて、横長のフレーム枠と共に、「列車側面の行先表示器か、又は、駅ホームの列車案内表示板を撮影して下さい。」との案内画面を表示する。 Next, after a predetermined time has elapsed, when the system user activates the boarding judgment application JUDG of the mobile terminal at the station platform, the activated boarding judgment application JUDG sets the built-in camera to the optimum shooting conditions and then performs the browser function. Activate the built-in camera and display a guide screen saying "Please take a picture of the destination indicator on the side of the train or the train guide display board on the station platform." Along with the horizontally long frame.

そこで、利用者は、内蔵カメラを行先表示器か列車案内表示板に向け、横長のフレーム枠に、車種と行先駅を捉えたタイミングで、撮影シャッターを押すことになる。 Therefore, the user points the built-in camera at the destination display or the train guide display board, and presses the shooting shutter at the timing when the vehicle type and the destination station are captured in the horizontally long frame.

すると、このシャッター操作に対応して、乗車判定アプリJUDGは、内蔵カメラが撮影した撮影データを、ユーザIDと共に管理サーバ3に送信する(図8の第5ステップ)。 Then, in response to this shutter operation, the boarding determination application JUDG transmits the shooting data taken by the built-in camera to the management server 3 together with the user ID (fifth step in FIG. 8).

その後の処理は、図4の構成の場合と同じであり、管理サーバ3は、撮影データを、画像認識サーバ4に転送して、画像認識サーバ4からの返信を待つ(図8の第6ステップ)。なお、参照テーブルTBL1は、作業領域WORKに記憶されている出発駅に基づいて特定される。 Subsequent processing is the same as in the case of the configuration of FIG. 4, and the management server 3 transfers the shooting data to the image recognition server 4 and waits for a reply from the image recognition server 4 (sixth step of FIG. 8). ). The reference table TBL1 is specified based on the departure station stored in the work area WORK.

一方、画像認識サーバ4は、管理サーバ3から受信した撮影データについて特徴量を注出すると共に、注出した特徴量を、特徴パラメータテーブルTBL2に記載の特徴量と順次対比して、一致する特徴量が最大個数となる画像IDと、この画像IDを選択したことの正解率(スコア値)を特定して管理サーバ3に返送する(図8の第7ステップ)。 On the other hand, the image recognition server 4 dispenses a feature amount for the shooting data received from the management server 3, and sequentially compares the dispensed feature amount with the feature amount described in the feature parameter table TBL2 to match the feature amount. The image ID having the maximum number of pieces and the correct answer rate (score value) for selecting this image ID are specified and returned to the management server 3 (7th step in FIG. 8).

すると、待機状態の管理サーバ3は、画像認識サーバ4から受けた画像ID及び正解率に基づいて、携帯端末1に判定結果を返送するか(図8の第8ステップ)、或いは、撮影データを補正して画像認識サーバに再送信する(図8の第6ステップ)。なお、作業領域WORKの保存データは、その必要が無くなったタイミングか、受付日からの保存期間が過ぎたタイミングで消去される。 Then, the management server 3 in the standby state returns the determination result to the mobile terminal 1 based on the image ID and the correct answer rate received from the image recognition server 4 (8th step in FIG. 8), or captures the shooting data. It is corrected and retransmitted to the image recognition server (sixth step in FIG. 8). The data stored in the work area WORK is deleted when it is no longer necessary or when the storage period from the reception date has expired.

この構成を採る場合には、システム利用者は、前日の夜など、時間に余裕のある状態で列車を選択でき、当日は、駅ホームで写真撮影するだけで足りるメリットがある。なお、乗車判定アプリJUDGがインストールされていない携帯端末1では、内蔵カメラを、連写モードか動画モードで機能させるのは図4の場合と同じである。 When this configuration is adopted, the system user can select a train in a state where there is plenty of time, such as the night before, and there is an advantage that it is sufficient to take a picture at the station platform on that day. In the mobile terminal 1 in which the boarding determination application JUDG is not installed, the built-in camera functions in the continuous shooting mode or the moving image mode as in the case of FIG.

以上、二つの実施例について説明したが、本発明の範囲に含まれる限り、適宜な変更が可能である。特に、上記の各実施例では、発車時刻を問題にしているが、簡素化の観点からは、管理サーバ3が、発車時刻を問題にすることなく、認識結果を携帯端末1に返信する構成を採るのも好適である。 Although the two examples have been described above, appropriate changes can be made as long as they are included in the scope of the present invention. In particular, in each of the above embodiments, the departure time is a problem, but from the viewpoint of simplification, the management server 3 is configured to return the recognition result to the mobile terminal 1 without making the departure time a problem. It is also suitable to take.

1 携帯端末
2 情報提供サーバ
3 管理サーバ
1 Mobile terminal 2 Information provision server 3 Management server

Claims (10)

交通機関の交通情報を提供する情報提供サーバと、前記情報提供サーバから必要な交通情報を取得可能に構成された携帯端末と、前記携帯端末から、交通情報に関する撮影画像と、これに対応する文字情報を取得可能に構成された管理サーバと、を有して構成され、
前記管理サーバは、所定のシャッター速度、前記携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件で撮影された撮影画像を受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている乗車判定システム。
An information providing server that provides traffic information of transportation, a mobile terminal configured to be able to acquire necessary traffic information from the information providing server, a photographed image related to traffic information from the mobile terminal, and corresponding characters. The management server is configured to be able to retrieve information, and is configured to have
The management server has a shooting image taken under shooting conditions of a predetermined shutter speed, an aperture value specified by the mobile terminal, and a predetermined ISO sensitivity specified corresponding to the shutter speed and the aperture value. In response to the above, a boarding determination system configured to return a determination result as to whether or not the photographed image is appropriate in relation to the character information to the mobile terminal.
交通機関の交通情報を提供する情報提供サーバと、前記情報提供サーバから必要な交通情報を取得可能に構成された携帯端末と、前記携帯端末から、交通情報に関する撮影画像と、これに対応する文字情報を取得可能に構成された管理サーバと、を有して構成され、
前記管理サーバは、連写撮影された複数枚の撮影画像か、動画撮影された動画フレームの撮影画像を受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている乗車判定システム。
An information providing server that provides traffic information of transportation, a mobile terminal configured to be able to acquire necessary traffic information from the information providing server, a photographed image related to traffic information from the mobile terminal, and corresponding characters. The management server is configured to be able to retrieve information, and is configured to have
The management server receives a plurality of shot images shot continuously or shot images of a moving image frame shot as a moving image, and determines whether or not the shot image is appropriate in relation to the character information. , A boarding determination system configured to reply to the mobile terminal.
前記文字情報を特定可能なID情報に対応して、一又は複数個の特徴量を記憶する特徴パラメータテーブルを備えて構成され、
前記特徴量は、前記携帯端末から受信する可能性のある撮影画像ごとに予め注出されて、前記特徴パラメータテーブルに記憶されている請求項1又は2に記載の乗車判定システム。
It is configured to include a feature parameter table that stores one or more feature quantities corresponding to ID information that can identify the character information.
The boarding determination system according to claim 1 or 2, wherein the feature amount is dispensed in advance for each captured image that may be received from the mobile terminal and stored in the feature parameter table.
前記管理サーバが取得した撮影画像が、前記文字情報との関係で適切か否かの判定は、
前記撮影画像から注出される特徴量と、前記特徴パラメータテーブルに記憶されている特徴量と、を比較して実行される請求項3に記載の乗車判定システム。
The determination of whether or not the captured image acquired by the management server is appropriate in relation to the character information is determined.
The boarding determination system according to claim 3, wherein the feature amount poured out from the captured image and the feature amount stored in the feature parameter table are compared and executed.
前記特徴量は、撮影画像に含まれている、交通機関の行先及び/又は種別に関して注出される請求項3又は4に記載の乗車判定システム。 The boarding determination system according to claim 3 or 4, wherein the feature amount is included in a photographed image and is dispensed with respect to a destination and / or type of transportation. 交通機関の行先と、当該交通機関の種別とに関する複数の組合せに対応して、組合せ毎に前記ID情報が付されている請求項5に記載の乗車判定システム。 The boarding determination system according to claim 5, wherein the ID information is attached to each combination corresponding to a plurality of combinations relating to the destination of the transportation and the type of the transportation. 前記携帯端末には、所定のシャッター速度、当該携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件を設定する設定プログラムがインストールされている請求項1に記載の乗車判定システム。 A setting program for setting a predetermined shutter speed, an aperture value specified by the mobile terminal, and shooting conditions of a predetermined ISO sensitivity specified corresponding to the shutter speed and the aperture value in the mobile terminal. The boarding determination system according to claim 1, wherein is installed. 所定のシャッター速度、携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件を請求項1に記載の携帯端末に設定するための設定プログラム。 The mobile terminal according to claim 1 is set with a predetermined shutter speed, an aperture value specified by the mobile terminal, and shooting conditions of a predetermined ISO sensitivity specified corresponding to the shutter speed and the aperture value. Setting program for . 請求項8に記載の設定プログラムがインストールされた携帯端末。 A mobile terminal on which the setting program according to claim 8 is installed. 所定のシャッター速度、携帯端末で規定されている絞り値、及び、前記シャッター速度と前記絞り値に対応して規定される所定のISO感度の撮影条件で撮影された撮影画像を、これに対応する文字情報と共に、前記携帯端末から受けて、その撮影画像が、前記文字情報との関係で適切か否かの判定結果を、前記携帯端末に返信するよう構成されている管理サーバ。 A shot image taken under a predetermined shutter speed, an aperture value specified by a mobile terminal, and a shooting condition of a predetermined ISO sensitivity specified corresponding to the shutter speed and the aperture value corresponds to this. A management server configured to receive text information from the mobile terminal and return a determination result of whether or not the captured image is appropriate in relation to the text information to the mobile terminal.
JP2020205099A 2020-12-10 2020-12-10 Boarding judgment system, setting program, mobile terminal, and management server Active JP7058708B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020205099A JP7058708B1 (en) 2020-12-10 2020-12-10 Boarding judgment system, setting program, mobile terminal, and management server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020205099A JP7058708B1 (en) 2020-12-10 2020-12-10 Boarding judgment system, setting program, mobile terminal, and management server

Publications (2)

Publication Number Publication Date
JP7058708B1 true JP7058708B1 (en) 2022-04-22
JP2022092337A JP2022092337A (en) 2022-06-22

Family

ID=81291894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020205099A Active JP7058708B1 (en) 2020-12-10 2020-12-10 Boarding judgment system, setting program, mobile terminal, and management server

Country Status (1)

Country Link
JP (1) JP7058708B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018181A (en) 2004-07-05 2006-01-19 Sony Ericsson Mobilecommunications Japan Inc Portable electronic photographing system, auxiliary photographing light generating apparatus, portable electronic apparatus and power supply apparatus
JP2018106465A (en) 2016-12-27 2018-07-05 株式会社リコー Boarding guide system, boarding guide method, information processing apparatus and program
WO2018198809A1 (en) 2017-04-26 2018-11-01 日本電気株式会社 Guidance system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018181A (en) 2004-07-05 2006-01-19 Sony Ericsson Mobilecommunications Japan Inc Portable electronic photographing system, auxiliary photographing light generating apparatus, portable electronic apparatus and power supply apparatus
JP2018106465A (en) 2016-12-27 2018-07-05 株式会社リコー Boarding guide system, boarding guide method, information processing apparatus and program
WO2018198809A1 (en) 2017-04-26 2018-11-01 日本電気株式会社 Guidance system

Also Published As

Publication number Publication date
JP2022092337A (en) 2022-06-22

Similar Documents

Publication Publication Date Title
US20210406323A1 (en) Method and apparatus for photograph finding
US8885963B2 (en) Automatic image capture
US8730356B2 (en) System and method for automatic flash removal from images
CN107958490A (en) Hands-free augmented reality for radio communication device
CN110650292B (en) Method and device for assisting user in shooting vehicle video
TW202011263A (en) System and method for performing image processing based on a damage assessment image judgement model
US20130044194A1 (en) Automatic image capture
US10373397B2 (en) Information processing device, information processing method, and information processing system
CN109495686B (en) Shooting method and equipment
CN106600421A (en) Intelligent car insurance loss assessment method and system based on image recognition
EP2003611A2 (en) Information presentation system, information presentation terminal, and server
US10726262B2 (en) Imaging support system, device and method, and imaging terminal
US20200090318A1 (en) Flat surface detection in photographs for tamper detection
CN107808461B (en) A kind of customized ticket production method
AU2009200887A1 (en) Image processing apparatus and method
TW201448585A (en) Real time object scanning using a mobile phone and cloud-based visual search engine
US11818633B2 (en) Map update system, data transmission device, and data transmission method
JP7058708B1 (en) Boarding judgment system, setting program, mobile terminal, and management server
WO2021068795A1 (en) Image display method and device, image identification method and device, medium, apparatus, and system
US11748702B2 (en) Methods of determining status of position in shelf, shelves and non-transitory computer-readable storage media
JP2019092000A (en) Automatic photographing system and automatic photographing method
CN113748402A (en) System and method for dynamically loading region-based augmented reality content
US20230104061A1 (en) Methods and apparatuses for determining statuses of positions on shelves, shelves and non-transitory computer-readable storage media
KR102098130B1 (en) Traffic information recognition system and method using QR code
JP7160763B2 (en) Information processing device, information processing system, information processing method, program, and application program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220412

R150 Certificate of patent or registration of utility model

Ref document number: 7058708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150