JP7253503B2 - モバイル・デバイス障害状態の検出のためのシステムおよび方法 - Google Patents
モバイル・デバイス障害状態の検出のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7253503B2 JP7253503B2 JP2019567504A JP2019567504A JP7253503B2 JP 7253503 B2 JP7253503 B2 JP 7253503B2 JP 2019567504 A JP2019567504 A JP 2019567504A JP 2019567504 A JP2019567504 A JP 2019567504A JP 7253503 B2 JP7253503 B2 JP 7253503B2
- Authority
- JP
- Japan
- Prior art keywords
- mobile device
- display
- image
- neural network
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 108
- 238000001514 detection method Methods 0.000 title description 8
- 230000007547 defect Effects 0.000 claims description 151
- 238000012549 training Methods 0.000 claims description 74
- 238000013528 artificial neural network Methods 0.000 claims description 64
- 238000013527 convolutional neural network Methods 0.000 claims description 53
- 238000004891 communication Methods 0.000 claims description 42
- 238000004458 analytical method Methods 0.000 claims description 38
- 230000035945 sensitivity Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 5
- 230000001537 neural effect Effects 0.000 claims description 5
- 238000012952 Resampling Methods 0.000 claims description 4
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 208000024891 symptom Diseases 0.000 claims 2
- 238000009966 trimming Methods 0.000 claims 1
- 238000012360 testing method Methods 0.000 description 96
- 230000000875 corresponding effect Effects 0.000 description 35
- 230000008569 process Effects 0.000 description 25
- 238000005259 measurement Methods 0.000 description 10
- 238000011176 pooling Methods 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 238000009530 blood pressure measurement Methods 0.000 description 9
- 239000003795 chemical substances by application Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000008439 repair process Effects 0.000 description 9
- 239000003086 colorant Substances 0.000 description 8
- 230000006378 damage Effects 0.000 description 8
- 238000010191 image analysis Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 5
- 238000011084 recovery Methods 0.000 description 5
- 238000002360 preparation method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000740 bleeding effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 230000005055 memory storage Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000010183 spectrum analysis Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000005336 cracking Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000013479 data entry Methods 0.000 description 2
- 230000006735 deficit Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- IRLPACMLTUPBCL-KQYNXXCUSA-N 5'-adenylyl sulfate Chemical compound C1=NC=2C(N)=NC=NC=2N1[C@@H]1O[C@H](COP(O)(=O)OS(O)(=O)=O)[C@@H](O)[C@H]1O IRLPACMLTUPBCL-KQYNXXCUSA-N 0.000 description 1
- 244000000626 Daucus carota Species 0.000 description 1
- 235000002767 Daucus carota Nutrition 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000000916 dilatatory effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000003711 image thresholding Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30121—CRT, LCD or plasma display
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Telephone Function (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本出願は、2016年4月28日付の出願に係る発明の名称を「モバイル・デバイス障害状態の検出のためのシステムおよび方法」とする米国仮特許出願第62/329,159号に基づく完全な利益および優先権を主張し、2017年2月27日付の出願に係る発明の名称を「デバイスの健全性を監視および追跡するためのシステムおよび方法」とする米国仮特許出願第62/464,366号に基づく完全な利益および優先権を主張し、および、2017年2月26日付の出願に係る発明の名称を「ディスプレイの欠陥を検出するためのシステムおよび方法」とする米国仮出願第62/463,725号に基づく完全な利益および優先権を主張するところの、2017年4月28日付の出願に係る発明の名称を「モバイル・デバイス障害状態を検出するためのシステムおよび方法」とする米国非仮出願第15/582,471号の一部継続出願であって、これらの開示はすべての目的のために参照により本明細書に完全に組み込まれるものとする。
本発明は、モバイル・デバイスにおける障害状態を検出するシステムおよび方法に関する。より具体的には、本発明は、ひび割れ、傷またはその他の点では損傷のある画面などの障害をモバイル・デバイスが有することを検出するとともに、サード・パーティによって適切な措置が講じられるように、動作しているか否かの当該画面のステータスを報告するシステムおよび方法を提供するものである。
- モバイル・デバイス保険:本発明の実施形態は、中古モバイル・デバイス保険市場における電話の状態の検証を提供するとともに、モバイル・デバイス・ハードウェアの証明可能な状態/機能(例えば、ひびの入っていない画面についてはモバイル・デバイスに対して完全な保険を適用するが、画面にひびが入っているがその他の点では機能しているデバイスはガラス破損を除いてデバイスを保険対象としてもよい)に関連する選択型保険または変額保険条項をサポートする能力を提供する。同様に、本発明の実施形態は、(例えば、IMEI情報などのモバイル・デバイスID情報またはテストの一部として本明細書に記載されている他のデータの送信により)点検されている電話が、保険がかけられた電話である旨の検証を提供する。さらに、本発明の実施形態は、虚偽の請求を減らすために、画面の修理のために返却される前にモバイル・デバイスが補償対象の正しいデバイスであることを特定する際に用いられてもよい。かかる事態は、例えば、修理会社が壊れたデバイスを実は修理せずその代わりに支払われた保険金を電話に保険をかけた人物と詐欺的に山分けするような場合に、保険をかけたデバイスについて生じ得る。
- モバイル・デバイスの譲渡:本発明の実施形態は、テストされた電話が占有/所有権の移転において実際に引き渡されたものであることを検証するために利用されてもよい。
- リース返却状態の検証:本発明の態様は、リース返却の条件の判定を提供する(例えば、リースされたモバイル・デバイスがリース終了時に返却されなければならない場合、または、モバイル・デバイスの状態が所定の合意された状態(すなわち、リース返却時にはディスプレイはひびが入っていてはいけない)を下回る場合、カスタマーは超過した摩耗/破損について追加料金を支払わなければならない)。
- 購入/出荷状態の検証:FSTAは、販売業者が完全に信頼されない場合、デバイスをオンラインで(例えば、イーベイ(登録商標)で)購入するカスタマーによる検証に用いることも考えられる。また、FSTAは、損傷の現在のレベル、すなわち、ディスプレイにひびが入っているとしてどの程度であるのか、を突き止めるために用いられることも考えられる(様々な実施形態において、カスタマーまたは会社が、分かっている画面状態が許容可能でない程度にまではひどく損傷を受けていないのであれば追加的な料金を支払うであろう、と予想される)。追加的に、本発明の実施形態は、モバイル・デバイスが発送されたときに許容可能な状態にあったという倉庫による証明を提供する。ある人物が別のソースから中古モバイル・デバイスを購入するような状況においてFSTAが検証者として用いられる場合、買い手は売り手に対して、信頼できる画面検証者アプリをインストールすることを要求してもよく、買い手のEメールアドレスまたはSMSナンバーをFSTAに入力して確認を行い、FSTAがテストを実行して結果を買い手に送信し、これにより、中古デバイスが既知の障害(ひび割れが生じた画面等)をもたないことを検証する。さらに、これは、デバイスが期待どおりに動作していることを出荷前に検証したい売り手によっても望まれ得るであろうから、売り手は故障したデバイスを受領者に送付したと非難されることがない。
- 法的地位の判定:本発明の態様は、モバイル・デバイスが紛失/盗難/未払い料金の対象になっていないことを確認する際に、サード・パーティ(または警察データベース)との協力をサポートしてもよい。
Claims (31)
- モバイル・デバイスに実行可能なプログラムをインストールすることと、
前記モバイル・デバイスの表示部がミラーの反射面に対向するように前記モバイル・デバイスを配置することを前記モバイル・デバイスのユーザに対して指示することと、
最適な画像キャプチャのために前記モバイル・デバイスの位置および表示を調整する追跡キャリブレーション機能を行うことと、
前記モバイル・デバイスの明るさ設定およびカメラ感度設定を変更して画像キャプチャを最適化することと、
前記モバイル・デバイスが前記ミラーに対して許容可能な向きに向いていることを判定したうえで、
前記ミラーから反射された前記モバイル・デバイスの画像をキャプチャすることと、
前記キャプチャされた画像を処理して前記モバイル・デバイスのディスプレイおよび筐体において欠陥が特定され得るか否かを判定することと、
を含み、
前記欠陥が、前記モバイル・デバイスの筐体上の模様、ひび割れ、欠け、傷および折れ、ベゼルのひび割れ、ならびに前記モバイル・デバイスの筐体の摩耗した部位のうちの少なくとも1つを含み、
前記キャプチャされた画像を処理して前記モバイル・デバイスの前記ディスプレイにおいて欠陥が特定され得るか否かを判定することが、
前記キャプチャされた画像から、前記モバイル・デバイス画面に対応するサブ画像を抽出することと、
前記サブ画像の奥行きを矩形のアスペクトに変換することと、
前記変換されたサブ画像を所定の入力画像データ設定に再サンプリングすることと、
前記再サンプリングされた、変換されたサブ画像を事前に訓練されたニューラル・ネットワークに対して提示して1つまたは複数のデバイス欠陥を特定することと、
前記モバイル・デバイスの前記画面に対応する前記1つまたは複数のデバイス欠陥のうち第1の欠陥の表示を前記ニューラル・ネットワークから取得することと、
をさらに含み、
前記ニューラル・ネットワークから前記欠陥の表示を取得することが、前記事前に訓練されたニューラル・モデルにおける欠陥クラスを活性化させる前記モバイル・デバイス画面の部分を示す徴候であって、前記欠陥クラスと関連づけられている蓋然性が最も高いエリアに対応するヒート・マップを含む徴候を前記ニューラル・ネットワークから取得することをさらに含む、方法。 - ホスト・サーバへの送信のために前記判定するステップの結果をフォーマットすることをさらに含む、請求項1に記載の方法。
- 前記追跡キャリブレーション機能が、
前記モバイル・デバイスから1つまたは複数の周囲照明パラメータを検索することと、
前記検索された周囲照明パラメータに基づいて前記モバイル・デバイスの前記ディスプレイの明るさパラメータを調整することと、
分析された周囲照明設定から、前記モバイル・デバイスのカメラの感度パラメータを調整することと、
前記モバイル・デバイスから得られたカメラ・データから、前記モバイル・デバイスが最適な配置から外れていると判定することと、をさらに含み、そのうえで、
前記モバイル・デバイスを移動して前記ミラーに対する前記モバイル・デバイスの最適な配置を前記ユーザが得るための方向が計算され、かつ、
前記方向が、前記ミラーにおいて前記ユーザにより判読可能な態様で、前記モバイル・デバイス上に表示される、
請求項1に記載の方法。 - 前記モバイル・デバイスの前記カメラの感度パラメータを調整することが、
前記カメラのISO設定を調整することと、
前記カメラのシャッター・スピードを調整することと、
をさらに含む、請求項3に記載の方法。 - 前記モバイル・デバイスの前記カメラの感度パラメータを調整することが、前記モバイル・デバイスの前記カメラに関連づけられた露出補正値を調整することをさらに含む、請求項3に記載の方法。
- 前記モバイル・デバイスの前記ディスプレイ上に1つまたは複数の基準マークを表示することと、
前記モバイル・デバイスから取得されたカメラ・データから、前記基準マークのうちの1つまたは複数を感知することと、
をさらに含む、請求項3に記載の方法。 - 前記モバイル・デバイスから1つまたは複数の周囲照明パラメータを検索することが、前記モバイル・デバイスにインストールされたオペレーティング・システムに関連づけられたAPIから前記パラメータを取得することをさらに含む、請求項3に記載の方法。
- 前記キャプチャされた画像を処理することが、
前記キャプチャされた画像をポートレート・モードに回転させることと、
前記画像をトリミングすることと、
をさらに含む、請求項1に記載の方法。 - 前記回転させるステップおよび前記トリミングするステップが前記モバイル・デバイスのプロセッサによって行われ、かつ、
前記回転されてトリミングされた画像がさらに、ホスト・サーバへの送信のためにフォーマットされる、請求項8に記載の方法。 - 第1の欠陥の表示を前記ニューラル・ネットワークから取得することが、クラス活性化マッピングを用いて、前記モバイル・デバイスの前記ディスプレイにおける障害の局所エリアを特定することをさらに含む、請求項1に記載の方法。
- 前記モバイル・デバイスに通信可能に接続されたサーバによって、前記キャプチャされた画像を受信することをさらに含み、かつ、
前記キャプチャされた画像の前記処理が、前記サーバのプロセッサによって行われる、
請求項1に記載の方法。 - 前記サーバ内のデータベースに格納された訓練用データを用いて前記事前に訓練されたニューラル・ネットワークを訓練することをさらに含み、かつ、前記訓練用データが、少なくともデバイス画面訓練用画像と、前記デバイス画面訓練用画像にそれぞれ対応する特定された欠陥とを含む、請求項1に記載の方法。
- 前記データベースに格納された前記訓練用データが、前記モバイル・デバイスのキャプチャされた画像に対応する新たな訓練用画像と、前記モバイル・デバイスの前記キャプチャされた画像に関連づけられた対応する特定された欠陥とによって拡張される、請求項12に記載の方法。
- 前記拡張された訓練用データによって前記事前に訓練されたニューラル・ネットワークを再訓練することをさらに含む、請求項13に記載の方法。
- 前記所定の入力画像データ設定が、320×544ピクセルのピクセル構成を含む、請求項1に記載の方法。
- 前記デバイス欠陥が、更に、
前記モバイル・デバイスの前記ディスプレイにおけるひび割れ、
前記モバイル・デバイスの前記ディスプレイにおける1つまたは複数のスタック・ピクセル、
前記モバイル・デバイスの前記ディスプレイにおける1つまたは複数のデッド・ピクセル、
前記モバイル・デバイスの前記ディスプレイ上のLCDブリード、
前記モバイル・デバイスの前記ディスプレイ上のピンク色の欠陥、および
これらの組み合わせ
のうちの1つまたは複数を含む、請求項1に記載の方法。 - モバイル・デバイスを備えたシステムにおいて、前記デバイスが、
メモリと通信するプロセッサと、
タッチセンサ式ディスプレイおよびデータ入力インタフェースを備えた、前記プロセッサと通信するユーザ・インタフェースと、
ホスト・サーバに対して通信インタフェースを提供するように構成された、前記プロセッサと通信する通信モジュールと、
を備え、
前記ホスト・サーバが、データベースに通信可能に接続されたサーバ・プロセッサと、サーバ通信インタフェースと、サーバ・ユーザ・インタフェースと、サーバ・メモリとを備え、かつ、
前記モバイル・デバイスの前記メモリが、前記プロセッサによって実行されたときに、前記モバイル・デバイスに、
前記モバイル・デバイスの表示部がミラーの反射面に対向するように前記モバイル・デバイスを配置することを前記モバイル・デバイスのユーザに対して指示する工程と、
最適な画像キャプチャのために前記モバイル・デバイスの位置および表示を調整する追跡キャリブレーション機能を行う工程と、
前記モバイル・デバイスの明るさ設定およびカメラ感度設定を変更して画像キャプチャを最適化する工程と、
前記モバイル・デバイスが前記ミラーに対して許容可能な向きに向いていると判定したうえで、
前記ミラーから反射された前記モバイル・デバイスの画像をキャプチャする工程と、
欠陥の分析のための前記ホスト・サーバへの送信のために前記キャプチャされた画像をフォーマットする工程と、
を行わせる命令を含み、
前記欠陥が、前記モバイル・デバイスの筐体上の模様、ひび割れ、欠け、傷および折れ、ベゼルのひび割れ、ならびに前記モバイル・デバイスの筐体の摩耗した部位のうちの少なくとも1つを含み、
前記サーバ・メモリが、
前記サーバ・プロセッサによって実行されると、前記ホスト・サーバに、
前記サーバ通信インタフェースから前記キャプチャされた画像を受信する工程と、
前記キャプチャされた画像から、前記モバイル・デバイスの画面に対応するサブ画像を抽出する工程と、
前記サブ画像の奥行きを矩形のアスペクトに変換する工程と、
前記変換されたサブ画像を所定の入力画像データ設定に再サンプリングする工程と、
前記再サンプリングされた、変換されたサブ画像を事前に訓練されたニューラル・ネットワークに対して提示して1つまたは複数の前記欠陥を特定する工程と、
前記モバイル・デバイスの前記画面に対応する前記欠陥の表示を前記ニューラル・ネットワークから取得する工程と、
を行わせる命令を含み、
前記ニューラル・ネットワークから前記欠陥の表示を取得することが、前記事前に訓練されたニューラル・モデルにおける欠陥クラスを活性化させる前記モバイル・デバイス画面の部分を示す徴候であって、前記欠陥クラスと関連づけられている蓋然性が最も高いエリアに対応するヒート・マップを含む徴候を前記ニューラル・ネットワークから取得することをさらに含む、システム。 - 前記追跡キャリブレーション機能が、
前記モバイル・デバイスから1つまたは複数の周囲照明パラメータを検索することと、
前記検索された周囲照明パラメータに基づいて前記モバイル・デバイスの前記ディスプレイの明るさパラメータを調整することと、
分析された周囲照明設定から、前記モバイル・デバイスの前記カメラの感度パラメータを調整することと、
前記モバイル・デバイスから得られたカメラ・データから、前記モバイル・デバイスが最適な配置から外れていると判定することと、をさらに含み、そのうえで、
前記モバイル・デバイスを移動して前記ミラーに対する前記モバイル・デバイスの最適な配置を前記ユーザが得るための方向が計算され、かつ、
前記方向が、前記ミラーにおいて前記ユーザにより判読可能な態様で、前記モバイル・デバイス上に表示される、
請求項17に記載のシステム。 - 前記モバイル・デバイスの前記カメラの感度パラメータを調整することが、
前記カメラのISO設定を調整することと、
前記カメラのシャッター・スピードを調整することと、
をさらに含む、請求項18に記載のシステム。 - 前記モバイル・デバイスの前記カメラの感度パラメータを調整することが、前記モバイル・デバイスの前記カメラに関連づけられた露出補正値を調整することをさらに含む、請求項18に記載のシステム。
- 前記モバイル・デバイスの前記ディスプレイ上に1つまたは複数の基準マークを表示することと、
前記モバイル・デバイスから取得されたカメラ・データから、前記基準マークのうちの1つまたは複数を感知することと、
をさらに含む、請求項18に記載のシステム。 - 前記モバイル・デバイスから1つまたは複数の周囲照明パラメータを検索することが、前記モバイル・デバイスにインストールされたオペレーティング・システムに関連づけられたAPIから前記パラメータを取得することをさらに含む、請求項18に記載のシステム。
- 前記キャプチャされた画像をフォーマットすることが、
前記キャプチャされた画像をポートレート・モードに回転させることと、
前記画像をトリミングすることと
をさらに含む、請求項17に記載のシステム。 - 前記欠陥の表示を前記ニューラル・ネットワークから取得することが、クラス活性化マッピングを用いて、前記モバイル・デバイスの前記ディスプレイにおける障害の局所エリアを特定することをさらに含む、請求項17に記載のシステム。
- 前記ホスト・サーバ内のデータベースに格納された訓練用データを用いて前記事前に訓練されたニューラル・ネットワークを訓練することをさらに含み、かつ、前記訓練用データが、少なくともデバイス画面訓練用画像と、前記デバイス画面訓練用画像にそれぞれ対応する特定された欠陥とを含む、請求項17に記載のシステム。
- 前記データベースに格納された前記訓練用データが、前記モバイル・デバイスのキャプチャされた画像に対応する新たな訓練用画像と、前記モバイル・デバイスの前記キャプチャされた画像に関連づけられた対応する特定された欠陥とによって拡張される、請求項25に記載のシステム。
- 前記拡張された訓練用データによって前記事前に訓練されたニューラル・ネットワークを再訓練することをさらに含む、請求項26に記載のシステム。
- 前記所定の入力画像データ設定が、320×544ピクセルのピクセル構成を含む、請求項17に記載のシステム。
- 前記欠陥が、更に、
前記モバイル・デバイスの前記ディスプレイにおけるひび割れ、
前記モバイル・デバイスの前記ディスプレイにおける1つまたは複数のスタック・ピクセル、
前記モバイル・デバイスの前記ディスプレイにおける1つまたは複数のデッド・ピクセル、
前記モバイル・デバイスの前記ディスプレイ上のLCDブリード、
前記モバイル・デバイスの前記ディスプレイ上のピンク色の欠陥、および
これらの組み合わせ
のうちの1つまたは複数を含む、請求項17に記載のシステム。 - 前記ニューラル・ネットワークが畳み込みニューラル・ネットワーク・アーキテクチャを含む、請求項17に記載のシステム。
- 前記ニューラル・ネットワークが、
前記サーバ・メモリに格納されたソフトウェアによって、
前記サーバ・プロセッサに通信可能に接続された外部ハードウェアによって、または、
格納されたソフトウェアと外部ハードウェアとの組み合わせによって実装され得る、請求項17に記載のシステム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762463725P | 2017-02-26 | 2017-02-26 | |
US62/463,725 | 2017-02-26 | ||
US201762464366P | 2017-02-27 | 2017-02-27 | |
US62/464,366 | 2017-02-27 | ||
US15/582,471 | 2017-04-28 | ||
US15/582,471 US10876914B2 (en) | 2016-04-28 | 2017-04-28 | Systems and methods for detection of mobile device fault conditions |
PCT/US2018/019380 WO2018156869A1 (en) | 2017-02-26 | 2018-02-23 | System and method for detection of mobile device fault conditions |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020514840A JP2020514840A (ja) | 2020-05-21 |
JP7253503B2 true JP7253503B2 (ja) | 2023-04-06 |
Family
ID=63253074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019567504A Active JP7253503B2 (ja) | 2017-02-26 | 2018-02-23 | モバイル・デバイス障害状態の検出のためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3586304B1 (ja) |
JP (1) | JP7253503B2 (ja) |
KR (1) | KR102631274B1 (ja) |
CA (1) | CA3054667A1 (ja) |
WO (1) | WO2018156869A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109614981B (zh) * | 2018-10-17 | 2023-06-30 | 东北大学 | 基于斯皮尔曼等级相关的卷积神经网络的电力系统智能故障检测方法及系统 |
CN111077166A (zh) * | 2018-10-19 | 2020-04-28 | 北京金山云网络技术有限公司 | 液晶屏的瑕疵检测方法、装置及终端设备 |
EP3793899A4 (en) | 2018-10-29 | 2021-07-07 | DJI Technology, Inc. | MOVABLE OBJECT TO PERFORM A REAL-TIME IMAGE |
CN109544544A (zh) * | 2018-11-30 | 2019-03-29 | 长讯通信服务有限公司 | 一种基于深度学习与无人机的移动通信维护对象状态识别方法 |
US11568324B2 (en) | 2018-12-20 | 2023-01-31 | Samsung Display Co., Ltd. | Adversarial training method for noisy labels |
US11714397B2 (en) * | 2019-02-05 | 2023-08-01 | Samsung Display Co., Ltd. | System and method for generating machine learning model with trace data |
CN110070524B (zh) * | 2019-04-03 | 2021-05-18 | 北京东舟技术股份有限公司 | 一种智能终端面板视觉故障检测系统 |
CN117234356A (zh) * | 2019-05-08 | 2023-12-15 | 义隆电子股份有限公司 | 用于触控装置的控制系统及方法 |
US11574182B2 (en) * | 2019-07-18 | 2023-02-07 | Apkudo, Inc. | Physical device inspection or repair |
CN110376217B (zh) * | 2019-07-24 | 2021-12-21 | 千享科技(北京)有限公司 | 一种电子设备显示屏损伤的主动检测方法及系统 |
CN110766079B (zh) * | 2019-10-24 | 2023-07-21 | 南京纳贝信息技术有限公司 | 用于屏幕异常画面检测的训练数据的生成方法与装置 |
CN111046365B (zh) * | 2019-12-16 | 2023-05-05 | 腾讯科技(深圳)有限公司 | 人脸图像传输方法、数值转移方法、装置及电子设备 |
CN112287734A (zh) * | 2020-02-14 | 2021-01-29 | 京东安联财产保险有限公司 | 碎屏检测及用于碎屏检测的卷积神经网络的训练方法 |
WO2022088182A1 (en) | 2020-11-02 | 2022-05-05 | British Telecommunications Public Limited Company | Wireless telecommunications network |
CN113364911B (zh) * | 2021-06-11 | 2023-03-07 | 上海兴容信息技术有限公司 | 一种预设终端的检测方法和系统 |
CN114429464A (zh) * | 2022-01-25 | 2022-05-03 | 众安在线财产保险股份有限公司 | 终端的碎屏识别方法和相关设备 |
CN114943717B (zh) * | 2022-05-31 | 2023-04-07 | 北京医准智能科技有限公司 | 一种乳腺病灶检测方法、装置、电子设备及可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013114049A (ja) | 2011-11-29 | 2013-06-10 | Sharp Corp | 画像表示端末ならびに画像表示端末を制御するための方法およびプログラム |
JP2015090569A (ja) | 2013-11-06 | 2015-05-11 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
JP2016139176A (ja) | 2015-01-26 | 2016-08-04 | シャープ株式会社 | 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム |
US20160225036A1 (en) | 2014-07-21 | 2016-08-04 | Gdt, Inc. | System and Method for Self-Performing a Cosmetic Evaluation of an Electronic Device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8867817B1 (en) * | 2012-10-29 | 2014-10-21 | Amazon Technologies, Inc. | Display analysis using scanned images |
US8964062B1 (en) * | 2012-12-18 | 2015-02-24 | Amazon Technologies, Inc. | Integrated light sensor for dynamic exposure adjustment |
KR101688458B1 (ko) * | 2016-04-27 | 2016-12-23 | 디아이티 주식회사 | 깊은 신경망 학습 방법을 이용한 제조품용 영상 검사 장치 및 이를 이용한 제조품용 영상 검사 방법 |
-
2018
- 2018-02-23 CA CA3054667A patent/CA3054667A1/en active Pending
- 2018-02-23 JP JP2019567504A patent/JP7253503B2/ja active Active
- 2018-02-23 WO PCT/US2018/019380 patent/WO2018156869A1/en active Application Filing
- 2018-02-23 KR KR1020197028115A patent/KR102631274B1/ko active IP Right Grant
- 2018-02-23 EP EP18710215.7A patent/EP3586304B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013114049A (ja) | 2011-11-29 | 2013-06-10 | Sharp Corp | 画像表示端末ならびに画像表示端末を制御するための方法およびプログラム |
JP2015090569A (ja) | 2013-11-06 | 2015-05-11 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
US20160225036A1 (en) | 2014-07-21 | 2016-08-04 | Gdt, Inc. | System and Method for Self-Performing a Cosmetic Evaluation of an Electronic Device |
JP2016139176A (ja) | 2015-01-26 | 2016-08-04 | シャープ株式会社 | 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3586304A1 (en) | 2020-01-01 |
JP2020514840A (ja) | 2020-05-21 |
KR20190139853A (ko) | 2019-12-18 |
EP3586304B1 (en) | 2022-07-20 |
CA3054667A1 (en) | 2018-08-30 |
KR102631274B1 (ko) | 2024-01-29 |
WO2018156869A1 (en) | 2018-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7253503B2 (ja) | モバイル・デバイス障害状態の検出のためのシステムおよび方法 | |
US11210777B2 (en) | System and method for detection of mobile device fault conditions | |
US12013346B2 (en) | System and method for detection of mobile device fault conditions | |
US11853182B2 (en) | Systems and methods for detection of mobile device fault conditions | |
JP2022553084A (ja) | モバイル・デバイスのディスプレイおよび筐体の診断のためのシステムおよび方法 | |
EP3731157B1 (en) | Screen damage detection for devices | |
US10127647B2 (en) | Methods and systems for detecting cracks in electronic devices | |
US11922467B2 (en) | Evaluating an electronic device using optical character recognition | |
US8942420B2 (en) | Detecting embossed characters on form factor | |
WO2022040668A1 (en) | Evaluating an electronic device using optical character recognition | |
EP3859697A1 (en) | Application for device evaluation and other processes associated with device recycling | |
JP2022548595A (ja) | モバイルデバイスの完全性状態を判断するために機械学習を利用してモバイルデバイスの画像を処理するためのシステム、方法、装置、およびコンピュータプログラム製品 | |
US20220383625A1 (en) | A system and method for detecting a protective product on the screen of electronic devices | |
EP3837821B1 (en) | Assessing condition of real-world objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7253503 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |