ES2912577T3 - Detección de daños en la pantalla para dispositivos - Google Patents

Detección de daños en la pantalla para dispositivos Download PDF

Info

Publication number
ES2912577T3
ES2912577T3 ES20176606T ES20176606T ES2912577T3 ES 2912577 T3 ES2912577 T3 ES 2912577T3 ES 20176606 T ES20176606 T ES 20176606T ES 20176606 T ES20176606 T ES 20176606T ES 2912577 T3 ES2912577 T3 ES 2912577T3
Authority
ES
Spain
Prior art keywords
image
screen
images
damage
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20176606T
Other languages
English (en)
Inventor
Biju Nair
Bikramjit Singh
Satish G Nair
Ram Mohan Reddy
Rajiv Kumar Dwivedi
Christopher Heistad
Rebekah Jane Griffiths
Jonathan Brian Chinn
Karl Felix Medina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Assurant Inc
Original Assignee
Assurant Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Assurant Inc filed Critical Assurant Inc
Application granted granted Critical
Publication of ES2912577T3 publication Critical patent/ES2912577T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0278Product appraisal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30121CRT, LCD or plasma display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

Un método para identificar una condición de una o más pantallas de un dispositivo electrónico, comprendiendo el método: recibir, a través de una solicitud de devolución, una solicitud de evaluación de una condición de al menos una parte de una pantalla (115, 510, 610, 710) de un primer dispositivo (110); provocar, mediante la aplicación de devolución, la visualización de un primer gráfico (500, 530, 600) en la pantalla del primer dispositivo cuando se enciende la pantalla, en donde el primer gráfico comprende un primer código de identificación; capturar al menos una parte de una primera imagen del primer gráfico a través de una cámara ubicada en el primer dispositivo, en el que la primera imagen comprende un reflejo del primer gráfico en una superficie reflectante; provocar, mediante la aplicación de retorno y en respuesta al análisis de al menos la parte de la primera imagen, la visualización de uno o más segundos gráficos en la pantalla del primer dispositivo cuando la pantalla está encendida; capturar al menos una parte de una o más segundas imágenes de al menos uno de los segundos gráficos a través de la cámara ubicada en el primer dispositivo, donde cada una de las segundas imágenes comprende un reflejo de al menos uno de los segundos gráficos en la superficie reflectante; y procesar una o más de las segundas imágenes para determinar si la pantalla del primer dispositivo presenta una grieta.

Description

DESCRIPCIÓN
Detección de daños en la pantalla para dispositivos
REFERENCIA CRUZADA A SOLICITUD RELACIONADA
Esta solicitud reivindica prioridad a la Solicitud de Patente No Provisional de EE. UU. N° 15/452.707 denominada "DETECCIÓN DE DAÑOS EN LA PANTALLA PARA DISPOSITIVOS", presentada el 7 de marzo de 2017 y Solicitud de Patente Provisional de EE. UU. N262/304.729 denominada "DETECCIÓN DE DAÑOS EN LA PANTALLA PARA DISPOSITIVOS MÓVILES", presentada el 7 de marzo de 2016.
CAMPO TÉCNICO
La presente invención se refiere a la determinación de una condición de una o más pantallas de dispositivos.
ANTECEDENTES
Los dispositivos, como teléfonos inteligentes, relojes y tabletas, a menudo se vuelven a vender a los fabricantes o a terceros cuando los consumidores actualizan sus dispositivos. Estos dispositivos usados pueden tener valor en el mercado de reventa según la condición del dispositivo. Por ejemplo, un usuario puede ofrecer su teléfono usado a un revendedor y el revendedor puede evaluar la condición del teléfono y ofrecer un precio basado en la evaluación. Sin embargo, la evaluación del estado del dispositivo a menudo la realiza un ser humano y, por lo tanto, es lenta y subjetiva. Además, el usuario debe esperar (por ejemplo, en un quiosco, tienda, etc.) en la evaluación para recibir el precio de la oferta, lo que puede disminuir el incentivo para que los usuarios revendan sus dispositivos usados y/o disminuir la satisfacción del usuario con el proceso.
RESUMEN
En varias formas de realización, se determina una condición de una o más pantallas en un dispositivo (por ejemplo, si existe daño a la pantalla). Un usuario puede solicitar una evaluación de la condición de una pantalla y/o un dispositivo a través de una aplicación de devolución en el dispositivo. La solicitud de devolución puede determinar la condición de un dispositivo (p. ej., para determinar el valor, reventa, reclamos de seguros, reclamos de garantía). La solicitud de devolución puede mostrar un primer gráfico en la pantalla del dispositivo y solicitar al usuario que coloque el dispositivo frente a una superficie reflectante, como un espejo (p. ej., para permitir que una imagen del reflejo del dispositivo en el espejo sea capturada por el propio dispositivo). La aplicación de retorno puede guiar al usuario para colocar el dispositivo en una posición predeterminada (p. ej., más cerca del espejo) para aumentar la probabilidad de que se capture una imagen que pueda usarse para evaluar con precisión el estado de la pantalla. Se puede obtener una imagen de la pantalla del dispositivo (por ejemplo, se puede tomar una imagen automáticamente y/o tomarla el usuario). Por ejemplo, se puede capturar una imagen del reflejo de la pantalla en el espejo. La imagen de la pantalla se puede procesar y/o analizar y se puede determinar si la pantalla está dañada basándose en la imagen analizada. Se pueden generar, transmitir y/o mostrar una o más notificaciones y/o indicadores en función del análisis del daño de la pantalla.
En algunas formas de realización, se puede utilizar un segundo dispositivo para facilitar la identificación de una condición de una pantalla de un dispositivo. Por ejemplo, un primer dispositivo puede tener una cámara rota y/o dañada y/o la pantalla del primer dispositivo puede estar demasiado dañada para permitir la interacción con la solicitud de devolución en el primer dispositivo (por ejemplo, las grietas en la pantalla pueden dañar los dedos del usuario). Por lo tanto, la aplicación de devolución en un segundo dispositivo puede utilizarse para identificar una condición de una pantalla de un primer dispositivo.
En varias formas de realización, se puede identificar una condición de una o más pantallas de un dispositivo (por ejemplo, electrónico como un dispositivo móvil, ordenador portátil, etc.). Una solicitud de evaluación de una condición de una pantalla de un primer dispositivo o parte del mismo puede recibirse a través de una aplicación de devolución en el primer dispositivo. Puede permitirse la presentación de un primer gráfico, que incluye un primer código de identificación, en la pantalla (por ejemplo, componente de visualización) del primer dispositivo. La solicitud de devolución puede hacer que se muestre el primer gráfico en la pantalla del primer dispositivo. Al menos una parte de una primera imagen del primer gráfico puede ser capturada por una cámara del primer dispositivo. La primera imagen puede incluir un reflejo del primer gráfico sobre una superficie reflectante, como un espejo. Se puede permitir la presentación de uno o más segundos gráficos (p. ej., a través de la aplicación de devolución) en la pantalla del primer dispositivo, y se puede capturar al menos una parte de una o más de las segundas imágenes de al menos uno de los segundos gráficos (por ejemplo, a través de una cámara del primer dispositivo). Una o más de las segundas imágenes pueden incluir un reflejo de al menos uno de los segundos gráficos en la superficie reflectante, como un espejo. La aplicación de devolución puede ser capaz de controlar y/o permitir que el usuario controle el componente de cámara del primer dispositivo. La aplicación de devolución podrá tener acceso a las imágenes captadas por la cámara del primer dispositivo. Una o más de las segundas imágenes pueden procesarse para determinar una condición de la pantalla del primer dispositivo. El procesamiento de la(s) segunda(s) imagen(es) puede(n) incluir dividir la segunda imagen en partes, determinar si una o más de las partes de la segunda imagen presentan daños e identificar las partes adyacentes a una o más de las partes que presentan daños. Se puede determinar una condición de la pantalla del primer dispositivo en función de si se determina que una o más de las partes de una o más de las segundas imágenes incluyen daños y si se determina que una o más de las partes adyacentes a una de las partes que incluyen daños también incluye daños.
Las formas de realización pueden incluir una o más de las siguientes características. La identidad de un primer dispositivo puede verificarse en base a un análisis del primer código de identificación. La segunda imagen capturada que incluye el segundo gráfico se puede incrustar o etiquetar de otro modo con el primer código de identificación o parte del mismo, del primer gráfico. La captura de al menos una parte de la(s) segunda(s) imagen(es) del (de los) segundo(s) gráfico(s) puede incluir la determinación de una orientación del dispositivo en función de la imagen capturada del primer gráfico, y proporcionar orientación para ajustar la orientación del dispositivo en función de la orientación determinada. Al menos una parte de una imagen adicional del primer gráfico puede capturarse a través de la cámara del primer dispositivo. En algunas formas de realización, se puede determinar una orientación del dispositivo en base a la imagen capturada del primer gráfico, y se puede proporcionar una guía para ajustar la orientación del dispositivo en base a la orientación determinada. Al menos una parte de la(s) imagen(es) adicional(es) del (de los) segundo(s) gráfico(s) puede(n) capturarse a través de la cámara del primer dispositivo, donde cada una de las imágenes adicionales comprende un reflejo de al menos uno de los segundos gráficos sobre la superficie reflectante. Si se determina que la(s) primera(s) imagen(es) capturada(s) y/o la(s) segunda(s) imagen(es) capturada(s) no es una imagen procesable, se puede permitir que el primer dispositivo sea reorientado para capturar una imagen procesable. Para capturar la imagen procesable, en algunas formas de realización, se puede determinar una orientación del dispositivo en función de la primera imagen capturada o una o más de las segundas imágenes capturadas, y se puede proporcionar orientación para ajustar la orientación del dispositivo en función de la determinada orientación. La(s) segunda(s) imagen(es) capturada(s) puede(n) etiquetarse con al menos una parte de la primera imagen capturada. En algunas formas de realización, uno o más procesos del primer dispositivo pueden estar restringidos (por ejemplo, ventanas emergentes, alertas, pancartas, etc.), por ejemplo, mientras se captura la imagen y/o la aplicación de devolución está en funcionamiento. Identificar una pantalla o parte de la misma del primer dispositivo en la segunda imagen puede incluir utilizar la detección de esquinas y/o la detección de bordes para identificar una pantalla del primer dispositivo en la segunda imagen. El procesamiento de una de las segundas imágenes puede incluir la identificación de la pantalla o parte de la misma del primer dispositivo en la segunda imagen y la generación de una tercera imagen en la que se restringen las partes de la segunda imagen que no se identifican como una pantalla o parte de la misma en la segunda imagen de la inclusión en la tercera imagen. La tercera imagen se puede dividir en partes (por ejemplo, en lugar de y/o además de la segunda imagen) y se puede determinar si una o más de las partes de la tercera imagen incluyen daño. Se pueden identificar las partes adyacentes a una o más de las partes que incluyen o no daños. La determinación de una condición de la pantalla del primer dispositivo puede basarse en si se determina que una o más de las partes de una o más de las terceras imágenes incluyen daños y si se determina que una o más de las partes adyacentes a una de las partes que se ha determinado que incluye el daño incluye el daño. La generación de una tercera imagen puede incluir la alteración de la segunda imagen de modo que se eliminen las partes de la segunda imagen que no están identificadas como la pantalla o parte de la misma. La identificación de una pantalla o parte de la misma puede incluir la identificación del área activa de la pantalla del primer dispositivo.
En varias formas de realización, se puede identificar una condición de la(s) pantalla(s) de un dispositivo (por ejemplo, un dispositivo electrónico tal como un dispositivo móvil). Por ejemplo, una condición de un primer dispositivo puede identificarse usando un segundo dispositivo. Al menos uno del primer dispositivo o del segundo dispositivo puede incluir una cámara (por ejemplo, un componente externo de captura de imágenes). El primero y el segundo dispositivo pueden o no ser el mismo dispositivo. Una solicitud de evaluación de una condición de una pantalla de un primer dispositivo o parte del mismo puede recibirse a través de una solicitud de devolución en un segundo dispositivo. El primer dispositivo puede incluir la solicitud de devolución. Se puede permitir la presentación de un primer gráfico, que incluye un primer código de identificación, en la pantalla del primer dispositivo a través de la aplicación de devolución en el primer dispositivo. Al menos una parte del primer gráfico presentado en el primer dispositivo puede capturarse a través de una cámara del segundo dispositivo. Se puede permitir la presentación de uno o más segundos gráficos en la pantalla del primer dispositivo, y al menos una parte de los segundos gráficos presentados en el primer dispositivo se puede capturar a través de una cámara del segundo dispositivo. Una o más de las segundas imágenes pueden procesarse (p. ej., preprocesarse y/o procesarse) para determinar una condición de la pantalla del primer dispositivo. El procesamiento de una segunda imagen puede incluir dividir la segunda imagen en partes y determinar si una o más de las partes de la segunda imagen están dañadas. En algunas formas de realización, las redes neuronales pueden realizar operaciones de la aplicación de retorno, como el procesamiento de imágenes. Se pueden identificar las partes adyacentes a una o más de las partes que presentan daños. Las partes adyacentes pueden o no estar dañadas. Se puede determinar una condición de la pantalla del primer dispositivo basándose en si se determina que una o más de las partes de la segunda imagen incluyen daños y si una o más de las partes adyacentes incluyen daños.
En varias formas de realización, si se determina que el primer dispositivo de condición está dañado, se puede determinar la información de daño. Se pueden generar banderas para identificar una o más de las partes de la segunda imagen que se determina que incluyen daño en base a la información de daño. La pantalla táctil del primer dispositivo puede probarse (p. ej., de acuerdo con pruebas de pantalla táctil conocidas) si se determina que la condición del primer dispositivo está dañada. El brillo de la pantalla del primer dispositivo se puede calibrar en base a la primera imagen capturada (p. ej., para facilitar el procesamiento y/o la precisión de la imagen). Permitir la presentación de segundos gráficos en la pantalla del primer dispositivo puede incluir permitir la presentación de un conjunto de imágenes en ráfaga en el primer dispositivo. El conjunto de imágenes en ráfaga incluye al menos uno de los segundos gráficos en múltiples niveles de luminosidad.
Capturar al menos una parte de uno o más de los segundos gráficos presentados en el primer dispositivo puede incluir capturar el conjunto de imágenes en ráfaga presentadas en el primer dispositivo y seleccionar una de las imágenes en ráfaga capturadas determinando cuál del conjunto de imágenes en ráfaga capturadas es más similar en color a un color de referencia. La imagen de ráfaga capturada seleccionada puede identificarse como uno de los segundos gráficos capturados (por ejemplo, para preprocesamiento y/o procesamiento). Capturar al menos una parte de una o más de las segundas imágenes de al menos uno de los segundos gráficos puede incluir determinar una orientación del dispositivo en función de la imagen capturada del primer gráfico y proporcionar orientación para ajustar una orientación del dispositivo en función de la orientación determinada. Al menos una parte de una imagen adicional del primer gráfico puede capturarse a través de la cámara del primer dispositivo. Permitir la presentación de uno o más segundos gráficos en la pantalla del primer dispositivo puede incluir permitir la presentación secuencial de más de un segundo gráfico en la pantalla del primer dispositivo. Capturar al menos una parte de uno o más de los segundos gráficos puede incluir capturar al menos una imagen de cada uno de los segundos gráficos presentados secuencialmente en la pantalla del primer dispositivo. Permitir la presentación de uno o más segundos gráficos en la pantalla del primer dispositivo puede incluir permitir la presentación simultánea de más de un segundo gráfico en la pantalla del primer dispositivo.
Los detalles de una o más formas de realización se exponen en los dibujos adjuntos y la descripción a continuación. Otras características, objetos y ventajas de las formas de realización serán evidentes a partir de la descripción y los dibujos. BREVE DESCRIPCIÓN DE LOS DIBUJOS
Para una comprensión más completa de esta descripción y sus características, ahora se hace referencia a la siguiente descripción, tomada junto con los dibujos adjuntos, en los que:
FIG. 1 ilustra una forma de realización de un sistema de ejemplo.
FIG. 2 ilustra una forma de realización de un proceso de ejemplo para determinar una condición de una pantalla de un dispositivo.
FIG. 3A ilustra una forma de realización de un ejemplo de posicionamiento de un dispositivo frente a un espejo. FIG. 3B ilustra una forma de realización de un ejemplo de captura de una imagen que incluye una pantalla de dispositivo.
FIG. 3C ilustra una forma de realización de una notificación de ejemplo mostrada por la aplicación de devolución. FIG. 4 ilustra una forma de realización de un proceso de ejemplo para determinar si la pantalla de un dispositivo está dañada.
FIG. 5A ilustra una forma de realización de una imagen de ejemplo.
FIG. 5B ilustra una forma de realización de una imagen de ejemplo.
FIG. 6A ilustra una forma de realización de una imagen de ejemplo antes del procesamiento.
FIG. 6B ilustra una forma de realización de una imagen de ejemplo después del procesamiento.
FIG. 7 ilustra una forma de realización de una parte de una división de una imagen.
FIG. 8A ilustra una forma de realización de una imagen capturada de ejemplo de una pantalla de dispositivo. FIG. 8B ilustra una forma de realización de una interfaz generada como resultado de una determinación de si la pantalla del dispositivo ilustrada en la FIG. 8A está dañada.
FIG. 8C ilustra una forma de realización de una imagen capturada de ejemplo de una pantalla de dispositivo. FIG. 8D ilustra una forma de realización de una interfaz generada como resultado de una determinación de si la pantalla del dispositivo ilustrada en la FIG. 8C está dañada.
FIG. 8E ilustra una forma de realización de una imagen capturada de ejemplo de una pantalla de dispositivo. FIG. 8F ilustra una forma de realización de una interfaz generada como resultado de una determinación de si la pantalla del dispositivo ilustrada en la FIG. 8E está dañada.
FIG. 9A ilustra una forma de realización de una herramienta de aprendizaje de ejemplo.
FIG. 9B ilustra una forma de realización de una segunda imagen de ejemplo, a partir de la cual se obtuvo la herramienta de aprendizaje.
FIG. 9C ilustra una forma de realización de un procesamiento de ejemplo de la segunda imagen de ejemplo ilustrada en la FIG. 9B.
FIG. 10A ilustra una forma de realización de una herramienta de aprendizaje de ejemplo.
FIG. 10B ilustra una forma de realización de una segunda imagen de ejemplo, a partir de la cual se obtuvo la herramienta de aprendizaje.
FIG. 10C ilustra una forma de realización de un procesamiento de ejemplo de la segunda imagen de ejemplo ilustrada en la FIG. 10B.
FIG. 11A ilustra una forma de realización de una herramienta de aprendizaje de ejemplo.
FIG. 11B ilustra una forma de realización de una segunda imagen de ejemplo, a partir de la cual se obtuvo la herramienta de aprendizaje.
FIG. 11C ilustra una forma de realización de un procesamiento de ejemplo de la segunda imagen de ejemplo ilustrada en la FIG. 9B.
FIG. 12A ilustra una forma de realización de un resultado de precisión de ejemplo para una red neuronal de ejemplo.
FIG. 12B ilustra una forma de realización del resultado de entropía cruzada para una red neuronal de ejemplo.
Los símbolos de referencia similares en los diversos dibujos indican elementos similares.
DESCRIPCIÓN DETALLADA
En varias formas de realización, un dispositivo (p. ej., un dispositivo electrónico como un teléfono inteligente, un reloj, una tableta, un lector electrónico, un ordenador portátil, una consola de juegos portátil, etc.) puede evaluarse para conocer la condición de una o más pantallas del dispositivo. El dispositivo puede incluir un componente capaz de tomar imágenes externas, como una cámara (por ejemplo, a diferencia de un componente capaz de guardar imágenes de interfaces gráficas de usuario mostradas en la pantalla, como una captura de pantalla).
La condición de la pantalla puede afectar la estética y/o la facilidad de uso (p. ej., dado que una grieta puede requerir reparación antes del uso y/o puede o no afectar el uso y/o la visualización en un dispositivo) y, por lo tanto, puede alterar el precio de un dispositivo cuando se ofrece a la venta. Las evaluaciones humanas pueden causar variabilidad ya que las evaluaciones pueden ser subjetivas. Las evaluaciones humanas pueden causar una demora entre el momento en que un usuario ofrece un dispositivo a la venta y el momento en que se ofrece el precio del dispositivo. Estos factores pueden disminuir el deseo de un usuario de revender el dispositivo, disminuir la satisfacción del usuario con el proceso, lo que puede mantener buenos dispositivos fuera del mercado, aumentar los precios de reventa (por ejemplo, debido a que el suministro es más limitado) y/o disminuir el reciclaje de dispositivos (p. ej., ya que el dispositivo puede almacenarse o desecharse). En algunas formas de realización, una determinación automatizada de la condición de la pantalla puede reducir el fraude. Por ejemplo, una condición de pantalla puede verificarse para fines de seguros (por ejemplo, emisión de pólizas y/o reclamos) y/o reutilización. Al determinar automáticamente la condición de la pantalla como se describe, la incidencia de fraude puede reducirse, lo que puede reducir los costos de la póliza (p. ej., ya que una condición puede verificarse y/o determinarse objetivamente) y/o aumentar la satisfacción del usuario (p. ej., ya que el dispositivo puede no ser necesario llevarlo a una tienda para verificar el estado y/o ya que se puede obtener un estado objetivo del dispositivo para una posible reutilización). Por lo tanto, existe la necesidad de detección automática de una condición del dispositivo o componentes del mismo, como si existe daño en la pantalla de un dispositivo.
Como se ilustra en la FIG. 1, se pueden acoplar uno o más dispositivos 110 (por ejemplo, a través de una red como Internet u otra red de comunicación) a un servidor 120. El servidor 120 puede ser cualquier servidor apropiado. En algunas formas de realización, el servidor 120 puede incluir una red neuronal. La red neuronal puede implementarse a través de software y/o hardware (por ejemplo, algunas formas de realización de una red neuronal pueden estar disponibles comercialmente y/o construirse a partir de IBM®, CogniMem®, a través de la biblioteca FANN y/o usar una red neuronal convolucional en la parte superior del marco de Google® tensorflow) en el servidor. En algunas formas de realización, se puede utilizar una red neuronal convolucional ya que una red neuronal convolucional puede ser más capaz (por ejemplo, más rápida, más precisa, etc.) de procesamiento de imágenes que otras redes neuronales, en algunas formas de realización.
La red neuronal puede autoajustarse y/o ajustarse en función de las actualizaciones del sistema para mejorar la precisión de la detección de daños en la pantalla, en algunas formas de realización. Por ejemplo, las herramientas de aprendizaje, como imágenes capturadas y/o daños marcados (p. ej., imágenes capturadas en las que las partes identificadas como dañadas se marcan, por ejemplo, con cambios de color y/o patrón), se pueden proporcionar a la red neuronal para facilitar y/o para permitir que la red neuronal aprenda a identificar una condición de un dispositivo. La red neuronal puede analizar herramientas de aprendizaje, imágenes capturadas asociadas, procesar las imágenes capturadas asociadas, identificar daños a través del procesamiento y/o identificar diferencias y/o similitudes entre las partes con los daños identificados y las herramientas de aprendizaje para desarrollar la red neuronal (por ejemplo, de modo que la red neuronal sea capaz de identificar las condiciones de los dispositivos o partes de los mismos). En algunas formas de realización, la red neuronal puede formular su propio aprendizaje sobre el daño percibido en píxeles y/u otras partes del dispositivo (p. ej., en base a herramientas de aprendizaje proporcionadas a la red neuronal y/o procesamiento de imágenes capturadas).
Los dispositivos 110 pueden incluir una o más pantallas de dispositivo 115 (p. ej., monitor, pantalla LCD, vidrio, cristal Gorilla, etc.). Los dispositivos 110 pueden incluir una cámara capaz de capturar un reflejo de una imagen de la pantalla del dispositivo (por ejemplo, una cámara frontal o una cámara en el mismo lado del dispositivo que la pantalla del dispositivo). Un dispositivo 110 puede incluir una aplicación de devolución almacenada en una memoria del dispositivo y ejecutable por el procesador del dispositivo. La aplicación de devolución puede permitir que el dispositivo 110 se comunique con el servidor 120. La aplicación de devolución puede recibir información del usuario, solicitar al usuario que proporcione información y/o coloque el dispositivo, transmita imágenes y/o notificaciones, genere gráficos, capture imágenes, dirigir un componente del dispositivo como una cámara para capturar una imagen, restringir componentes del dispositivo (p. ej., flash), restringir operaciones del dispositivo (p. ej., ventanas emergentes, pancartas, alertas, recordatorios, etc. durante el funcionamiento de la aplicación de devolución y/o captura de imagen) y/o comunicarse con otros dispositivos, como el servidor 120. En algunas formas de realización, la aplicación de devolución puede permitir la venta del dispositivo a través de la aplicación, determinar una condición del dispositivo o componentes del mismo, permitir que se determine el valor de un dispositivo en función de una condición del dispositivo, determinar una condición del dispositivo o sus componentes para la reutilización del dispositivo, determinar una condición del dispositivo o sus componentes para reclamos de seguros (por ejemplo, si un usuario desea presentar un reclamo por una póliza de seguro de dispositivo, la solicitud de devolución puede determinar la condición del dispositivo o sus componentes), determinar la condición de un dispositivo para reclamos de garantía, etc.
El servidor y el dispositivo 110 pueden realizar una o más de las operaciones descritas por separado y/o junto con otros dispositivos. En algunas formas de realización, es posible que no se utilice un servidor y la aplicación de devolución puede realizar una o más de las operaciones descritas (por ejemplo, en lugar del servidor). En algunas formas de realización, un servidor puede realizar una o más operaciones de los procesos descritos para aumentar la velocidad de la operación. En algunas formas de realización, uno o más de los dispositivos 110 y/o el servidor pueden realizar una o más de las operaciones en conjunto entre sí. En algunas formas de realización, el servidor puede estar basado en la nube y los dispositivos pueden comunicarse con el servidor para realizar operaciones tales como procesamiento y/o análisis de imágenes (por ejemplo, identificación de condiciones).
En algunas formas de realización, cuando un usuario decide vender un dispositivo (por ejemplo, al actualizar un dispositivo, al cambiar de dispositivo, etc.), un usuario puede seleccionar la aplicación de devolución en el dispositivo. La solicitud de devolución puede determinar información (p. ej., condición del dispositivo, propiedades del dispositivo como modelo, precios de reventa en el mercado, etc.) sobre el dispositivo y mostrar un precio para el dispositivo. La condición de la pantalla puede ajustar el precio ofrecido por el dispositivo a través de la aplicación, ya que el daño de la pantalla es estéticamente desagradable para algunos usuarios, puede indicar daños a otros componentes y/o puede ser costoso reemplazarlo o repararlo. Dado que la condición de la pantalla puede ser determinada automáticamente por la aplicación y/o el servidor, la evaluación puede realizarse más rápidamente y/o puede proporcionarse más consistencia (por ejemplo, dado que un ser humano no está determinando la condición). Además, dado que la condición de la pantalla puede determinarse automáticamente, es posible que un usuario no pueda informar intencionalmente la condición de la pantalla de manera inexacta (por ejemplo, dado que el valor de un dispositivo con una buena condición de pantalla significa un precio de mercado más alto, el usuario tiene un incentivo para informar la condición de la pantalla sea buena incluso si está agrietada o rota; la detección automática puede inhibir el fraude común en los sistemas de autoinforme y/o análisis basados en humanos). Además, la condición de la pantalla (p. ej., grieta grande, grieta profunda, etc.) puede hacer que el sistema determine si otros componentes del dispositivo también pueden estar dañados. Una vez que se determina la condición de la pantalla del dispositivo y/o el dispositivo, se puede determinar un precio de oferta para el dispositivo (por ejemplo, por el servidor y/o la aplicación de devolución). En algunas formas de realización, se puede determinar un costo base para el dispositivo (p. ej., basado al menos parcialmente en el precio de reventa, precio de reciclaje, información de mercado, oferta de dispositivos similares y/o demanda del dispositivo) y se puede ajustar el precio base según la condición del dispositivo (p. ej., disminución por daño a la pantalla, disminución por daño a otros componentes y/o aumento por nuevo en la caja). A continuación, el usuario puede tomar una decisión sobre si vender o no el dispositivo en función del precio recibido. La entidad que ofrece el precio podrá realizar la oferta con conocimiento del estado de la pantalla sin que existan desfases de tiempo significativos entre que el usuario inicia el proceso de reventa y recibe el precio. Así, la satisfacción con el proceso puede aumentar para los usuarios y/o entidades que compran o validan siniestros o asegurabilidad de los dispositivos usados, en algunas formas de realización.
En algunas formas de realización, además de y/o en lugar de la reventa, la condición del dispositivo puede determinarse (p. ej., por la aplicación de devolución y/o el servidor) para un reclamo de seguro (p. ej., seguro del dispositivo). Por ejemplo, un dispositivo puede estar dañado y/o sospechar que está dañado. La condición del dispositivo o de los componentes del mismo puede determinarse y/o informarse para presentar y/o verificar un reclamo de seguro. En algunas formas de realización, la solicitud de devolución se puede utilizar para determinar la condición de un dispositivo o parte del mismo al comprar un seguro de dispositivo. Por lo tanto, en lugar de confiar en el autoinforme y/o llevar un dispositivo a una tienda física para determinar la condición de un dispositivo o sus componentes, la condición puede determinarse a través de la aplicación de devolución en el dispositivo.
En algunas formas de realización, la condición de un dispositivo puede determinarse (p. ej., por la aplicación de devolución y/o el servidor) para las garantías del dispositivo. Por ejemplo, un fabricante, revendedor, reparador y/o renovador puede garantizar un dispositivo. Las garantías pueden ser complejas y un usuario puede tener dificultades para entender qué partes están cubiertas y/o qué tipo de daño está cubierto. La condición de un dispositivo y/o componentes del mismo y/o una determinación de si el componente dañado está bajo garantía puede determinarse utilizando la solicitud de devolución. En algunas formas de realización, se puede enviar y/o verificar un reclamo de garantía utilizando la condición determinada a través de la solicitud de devolución.
En algunas formas de realización, la condición de un dispositivo puede determinarse para determinar si un dispositivo puede ser reutilizado (por ejemplo, por otro usuario). Por ejemplo, un segundo usuario puede obtener una condición del dispositivo de un primer usuario a través de la aplicación de devolución en el dispositivo (por ejemplo, la aplicación de devolución puede enviar una notificación con la condición del dispositivo al segundo usuario). El segundo usuario puede entonces obtener una evaluación de la condición del dispositivo con menos preocupación por el fraude, la subjetividad o el error (por ejemplo, que una evaluación humana). El dispositivo con y/o sin daño puede ser utilizado por el segundo usuario (por ejemplo, con o sin reparar el daño identificado por el sistema). La solicitud de devolución se puede usar para identificar qué reparaciones se pueden realizar y/o si un dispositivo se puede usar sin reparaciones.
FIG. 2 ilustra una forma de realización de un proceso de ejemplo 200 para determinar una condición de una pantalla de un dispositivo. La(s) imagen(es) de la pantalla del dispositivo de un dispositivo puede(n) recibirse a través de la aplicación de devolución en el dispositivo (operación 210). Por ejemplo, un usuario puede abrir la aplicación de devolución en un dispositivo. En algunas formas de realización, la aplicación de devolución puede iniciar comunicaciones con el servidor (por ejemplo, para obtener precios base recientes para dispositivos, para obtener actualizaciones de software, etc.). El usuario puede solicitar una oferta por el precio del dispositivo, para determinar si un dispositivo se puede reutilizar, para presentar un reclamo de seguro, para verificar la condición del dispositivo para un reclamo de seguro y/o póliza, y/u otras razones apropiadas para determinar una condición de un dispositivo. La aplicación de devolución puede solicitar (por ejemplo, a través de notificaciones visuales, de audio y/o táctiles) al usuario que obtenga una imagen de la pantalla del dispositivo. Por ejemplo, la aplicación de devolución puede solicitar al usuario que coloque el dispositivo con la pantalla del dispositivo frente a un espejo. Dado que la calidad de la imagen puede afectar la capacidad de determinar una condición de la pantalla del dispositivo (por ejemplo, si la pantalla del dispositivo está dañada o no), la aplicación de devolución puede solicitar al usuario que ajuste la posición del dispositivo. Por ejemplo, la aplicación de devolución puede solicitar (p. ej., a través de notificaciones visuales y/o auditivas) al usuario con instrucciones para ajustar la posición del dispositivo, como mover el dispositivo más cerca, más lejos, tocar la imagen para volver a enfocar la imagen, ajustar el ángulo en donde se sostiene el dispositivo, etc. Cuando el dispositivo está en una posición predeterminada, se pueden capturar una o más imágenes. La imagen puede capturarse automáticamente después de que la aplicación de devolución determine que el dispositivo está en la posición predeterminada (por ejemplo, una posición óptima para capturar una imagen). La aplicación de devolución puede detectar el dispositivo dentro de la imagen y enfocar automáticamente la cámara en el dispositivo. Además, la aplicación de devolución también puede recortar el dispositivo dentro de la imagen. La imagen capturada puede ser el reflejo del dispositivo en el espejo y puede incluir la pantalla del dispositivo. El reflejo del dispositivo en el espejo puede capturarse en lugar de usar una función de "captura de pantalla" del dispositivo para obtener una imagen del exterior de la pantalla en lugar de una imagen de la interfaz presentada en la pantalla del dispositivo.
En algunas formas de realización, se puede inhibir la carga de una imagen al servidor y/o la aplicación de devolución que no se captura a través de la aplicación de devolución (operación 220). Cuando la condición de la imagen de la pantalla se determina en función de una imagen, puede existir la posibilidad de fraude. Por ejemplo, un usuario puede tomar una imagen de un dispositivo similar sin daños para aumentar el precio ofrecido por un dispositivo dañado. Para reducir los costos asociados con la representación fraudulenta o incompleta/errónea de la(s) pantalla(s) del dispositivo, es posible que no se acepten cargas o selecciones de imágenes no capturadas a través de la solicitud de devolución. Por ejemplo, la aplicación de devolución puede procesar imágenes capturadas por la aplicación (por ejemplo, la aplicación accede a la aplicación de la cámara en el dispositivo y procesa la imagen tomada por la aplicación de la cámara y etiqueta la imagen capturada con información del dispositivo como identificación, fecha y/o marca de tiempo). Es posible que la solicitud de devolución no acepte imágenes de una biblioteca de fotos del dispositivo o del almacenamiento en la nube (por ejemplo, es posible que el usuario no pueda tomar una imagen de la pantalla del dispositivo y seleccionar la imagen de una biblioteca de fotos en el dispositivo).
Se puede determinar si la pantalla del dispositivo está dañada basándose en la(s) imagen(es) recibida(s) (operación 230). La solicitud de devolución puede transmitir la(s) imagen(es) recibida(s) al servidor para su análisis. El servidor puede procesar y/o analizar las imágenes para determinar si la pantalla del dispositivo está dañada. Por ejemplo, el servidor puede incluir una red neuronal que ha sido entrenada para identificar pantallas dañadas y/o probabilidades de que las pantallas o partes de las mismas estén dañadas. En algunas formas de realización, la red neuronal puede entrenarse para identificar pantallas dañadas mediante el procesamiento de un conjunto de imágenes que incluyen pantallas con grietas, roturas y/u otros daños conocidos y/o imágenes sin daños. La red neuronal puede aprender a identificar patrones asociados con daños en la pantalla del conjunto de imágenes. El servidor puede determinar si la pantalla del dispositivo está dañada en función del análisis de las imágenes recibidas por la red neuronal, que ha sido entrenada para reconocer daños en la pantalla. La red neuronal (p. ej., que reside en el servidor) puede tener, por ejemplo, una primera capa o una capa externa que se puede entrenar para identificar imágenes de pantalla típicas que no están asociadas con daños, como reflejo(s), logotipo(s), sombra(s) y/u otro(s) artefacto(s) que pueden encontrarse en una imagen de un dispositivo (p. ej., preprocesamiento). Entrenar la red neuronal de la capa externa para identificar imágenes de pantalla típicas que no están asociadas con daños puede reducir la ocurrencia de evaluaciones incorrectas de daños (por ejemplo, grietas, astillas, rayones) cuando en realidad no están en el dispositivo y/o aumentar las valoraciones correctas de los daños. Además, entrenar la capa exterior de la red neuronal para identificar imágenes de pantalla típicas que no están asociadas con daños puede permitir recuperar la imagen de la pantalla (p. ej., para obtener un procesamiento más preciso de la imagen de daños).
El proceso 200 puede ser implementado por varios sistemas, como el sistema 100. Además, se pueden agregar, eliminar y/o modificar varias operaciones. Por ejemplo, la solicitud de devolución puede realizar una o más de las operaciones para determinar si la pantalla de un dispositivo está dañada. La aplicación de devolución puede realizar al menos una parte del análisis de la imagen, por ejemplo. En algunas formas de realización, se puede capturar y procesar más de una imagen para determinar si la pantalla del dispositivo está dañada. En algunas formas de realización, se puede ajustar un costo base para el dispositivo si se determina que la pantalla del dispositivo está dañada. Por ejemplo, si la pantalla de un dispositivo se daña, el costo base puede reducirse por el costo de reemplazo de la pantalla, el costo de reparación de la pantalla, los costos del tiempo de procesamiento y/o los costos de mano de obra.
En algunas formas de realización, la aplicación de devolución (por ejemplo, en el servidor y/o dispositivo) puede preprocesar la imagen. Por ejemplo, la solicitud de devolución puede identificar imágenes de mala calidad (p. ej., mala calidad) capturadas (p. ej., una o más de las imágenes capturadas a través de la aplicación de devolución). La aplicación de devolución puede preprocesar imágenes (p. ej., a través de la capa externa de la red neuronal y/o a través de la aplicación de devolución en el dispositivo del usuario) para identificar las imágenes deficientes (p. ej., a través de un clasificador externo en una red neuronal configurada preparados y entrenados para detectar condiciones que puedan 'ocultar' una grieta y/o defectos). Por ejemplo, el preprocesamiento puede identificar (p. ej., a través del clasificador externo) detalles de mala calidad, como incluir dedos u otras obstrucciones sobre la pantalla, un objeto en la imagen no es un teléfono, una pantalla completa que no está en la imagen, y/o reflejos que puedan ocultar una fisura. En algunas formas de realización, la capa externa de la red neuronal puede (p. ej., a través del entrenamiento) identificar otros defectos que provocan imágenes deficientes. En algunas formas de realización, el preprocesamiento puede filtrar imágenes basándose, al menos parcialmente, en otros factores que se pueden calcular analizando la imagen, como la borrosidad y/o el mal color. La borrosidad, asociada con una calidad de imagen deficiente, se puede calcular en función de la tasa de cambio de colores en los bordes para determinar si la imagen está enfocada o no. La mala coloración de la imagen, que puede estar asociada con una calidad de imagen deficiente, se puede detectar examinando la intensidad del color.
En algunas formas de realización, la condición de un primer dispositivo puede determinarse usando un segundo dispositivo (por ejemplo, un dispositivo diferente al primer dispositivo). Por ejemplo, una primera pantalla de un primer dispositivo puede dañarse de tal manera que un usuario no pueda usar el dispositivo o no desee usarlo (p. ej., los dedos pueden dañarse por grietas en la pantalla, los chips de la pantalla están sueltos, la pantalla puede dañarse aún más por el uso, etc.). Por lo tanto, se puede utilizar un segundo dispositivo para capturar las imágenes del primer dispositivo. El primer y el segundo dispositivo pueden incluir la aplicación de devolución (por ejemplo, los procesadores del primer y segundo dispositivo pueden realizar una o más operaciones de la aplicación de devolución). Se puede recibir una solicitud de evaluación de una condición de una pantalla de un primer dispositivo o parte del mismo a través de una solicitud de devolución en un segundo dispositivo. Las aplicaciones de devolución en los dispositivos primero y segundo pueden estar en comunicación (por ejemplo, directa y/o indirectamente a través de la aplicación de devolución en el servidor). Por ejemplo, la aplicación de devolución en el segundo dispositivo puede comunicarse con la aplicación de devolución en el primer dispositivo para permitir que se presenten gráficos en la pantalla del primer dispositivo a través de la aplicación de devolución. La aplicación de devolución puede presentar imágenes (p. ej., incluidos los primeros y/o segundos gráficos) en el primer dispositivo y permitir que las imágenes presentadas sean capturadas por el segundo dispositivo. Las imágenes capturadas pueden preprocesarse y/o procesarse para determinar una condición de la pantalla del primer dispositivo. Por lo tanto, aunque se puede restringir el uso de un primer dispositivo (por ejemplo, debido a daños), se puede obtener una evaluación del estado de la pantalla del primer dispositivo.
En algunas formas de realización, un dispositivo puede ajustar automáticamente la posición del dispositivo. Un dispositivo puede ser capaz de equilibrarse sobre una superficie aproximadamente nivelada y, por lo tanto, el dispositivo puede disponerse sobre la superficie frente a un espejo. El dispositivo puede activar automáticamente una o más vibraciones para reposicionar automáticamente (p. ej., girar) el dispositivo. En algunas formas de realización, si el ajuste automático no logra posicionar el dispositivo en una posición predeterminada para la captura de imágenes, la aplicación de retorno puede solicitar a través de notificaciones (por ejemplo, audio, táctil y/o visual) al usuario que ajuste la posición.
Las notificaciones pueden transmitir instrucciones a un usuario sobre cómo cambiar la posición del dispositivo (por ejemplo, más cerca, alejarse, etc.), en algunas formas de realización. En algunas formas de realización, la aplicación de devolución puede generar una ayuda de posicionamiento para su visualización en el dispositivo. La ayuda de posicionamiento puede indicar (p. ej., señales visuales, auditivas y/o táctiles) si el dispositivo está en una posición predeterminada, qué tan cerca está el dispositivo de la posición predeterminada y/o en qué dirección está el dispositivo y/o o fuera de posición. Por ejemplo, la ayuda de posicionamiento puede incluir un nivel de burbuja generado electrónicamente (p. ej., acelerómetros en el dispositivo; y/o el GPS puede facilitar la determinación de la orientación del dispositivo, puede calcular en qué parte de una imagen se detecta el dispositivo; y/o puede proporcionar retroalimentación en tiempo real de los cambios en la(s) posición(es) y/o ángulo(s) en los que se sostiene el dispositivo). En algunas formas de realización, las instrucciones pueden incluir instrucciones sobre cómo alterar un entorno (por ejemplo, una habitación) en donde se coloca el dispositivo. Por ejemplo, las instrucciones pueden incluir instrucciones para aumentar y/o disminuir la iluminación, cerrar ventanas (por ejemplo, para reducir el resplandor) y/o cualquier otra instrucción apropiada.
En algunas formas de realización, la aplicación de devolución puede facilitar la captura de imágenes usando señales (por ejemplo, audio, táctil y/o visual). Por ejemplo, una interfaz gráfica de usuario de la solicitud de devolución puede dar la impresión de un "túnel" en la interfaz gráfica de usuario (por ejemplo, a través de formaciones cuadradas en 3D). Por ejemplo, la interfaz gráfica de usuario puede generar el aspecto de túnel con el código de identificación (por ejemplo, código QR) en un extremo del túnel con comparadores de tamaño y/o forma para los cuadrados alineados requeridos. Esto puede guiar a un usuario para alinear y colocar el dispositivo en el ángulo y la distancia correctos del espejo. La solicitud de devolución puede incluir otras señales visuales y/o auditivas. Por ejemplo, una interfaz gráfica de usuario puede incluir (p. ej., a través de superposiciones, ventanas emergentes, imágenes incrustadas, etc.) flechas (p. ej., 2D y/o 3D) que apuntan para indicar al usuario que reoriente el dispositivo (p. ej., inclinar el lado hacia un lado y/o de arriba hacia abajo, mueva el teléfono hacia adelante y/o hacia atrás).
En algunas formas de realización, la aplicación de devolución puede generar una notificación para mostrarla en el dispositivo cuando las imágenes se capturan correctamente. Por ejemplo, una imagen capturada puede ser preprocesada. En algunas formas de realización, si se determina que las imágenes durante el preprocesamiento no son procesables (p. ej., el servidor no puede determinar la condición de la pantalla, por ejemplo, porque la imagen del dispositivo se cortó y/o no muestra la pantalla completa), el usuario puede recibir una o más notificaciones y/o se le puede pedir al usuario que reinicie el proceso o partes del mismo. La red neuronal de la aplicación de devolución puede realizar una o más de las operaciones de preprocesamiento. Por ejemplo, la red neuronal (p. ej., una capa externa de una red neuronal multicapa) puede ser capaz (p. ej., mediante entrenamiento) de actuar como un filtro para rechazar imágenes durante el preprocesamiento que tienen problemas como, entre otros, dedos que bloquean la pantalla y/o el reflejo de la luz de una ventana, etc. La red neuronal puede ser capaz de proporcionar una notificación al usuario que incluya al menos una parte del motivo por el cual la imagen capturada es de mala calidad. Este motivo del rechazo puede facilitar (por ejemplo, para el usuario) el proceso de corrección (por ejemplo, reduciendo las conjeturas por parte del usuario para determinar el motivo del rechazo de la imagen capturada). En algunas formas de realización, la solicitud de devolución puede solicitar al usuario que inicie el proceso de reventa y/o iniciar automáticamente el proceso de reventa al abrir la solicitud de devolución.
En varias formas de realización, para determinar una condición de la pantalla, la aplicación de devolución puede capturar (por ejemplo, automáticamente y/o manualmente con una selección de un usuario) imágenes de la pantalla del dispositivo. La aplicación puede generar uno o más gráficos (por ejemplo, una imagen, un patrón, una pantalla de color sólido y/o una interfaz gráfica de usuario) para mostrarlos en la pantalla del dispositivo, en algunas formas de realización. Los gráficos generados por la solicitud de devolución pueden incluir uno o más colores (p. ej., negro, blanco, verde, morado, etc.), uno o más patrones, una fotografía, una imagen, un identificador (p. ej., código Qr , código de barras, etc.), cualquier otro gráfico apropiado y/o combinaciones de los mismos. La generación del gráfico puede incluir recuperar un gráfico de una memoria (p. ej., del dispositivo y/o acoplado al dispositivo) y/o generar un identificador (p. ej., basado en información del dispositivo, como información de IMEI, información de usuario, información temporal como fecha/hora, y/o validación de dicha información en tiempo real dentro de umbrales definidos para eliminar la reutilización de buenas imágenes del dispositivo tomadas previamente o imágenes de otro dispositivo, etc.). Algunos gráficos pueden facilitar la detección del estado de la pantalla. Por ejemplo, el gráfico generado por la aplicación puede incluir un gráfico verde, negro y/o blanco sólido que cubra al menos una parte de la pantalla (por ejemplo, la parte activa de la pantalla o partes de la misma).
En algunas formas de realización, la aplicación puede generar un primer gráfico que incluye un identificador y uno o más segundos gráficos. El primer gráfico y/o el segundo gráfico se analizan para determinar la condición de la pantalla del dispositivo. Por ejemplo, un primer gráfico puede incluir un identificador como un código QR. El identificador puede ser generado por la solicitud de devolución. Por ejemplo, la información del dispositivo (por ejemplo, la información de IMEI, la antigüedad del dispositivo, el modelo del dispositivo, la capacidad de la memoria, etc.) y/o la información del usuario pueden estar codificadas en el identificador. FIG. 3A ilustra un ejemplo de posicionamiento de un dispositivo frente a un espejo, donde la aplicación de devolución genera un identificador para mostrar en la pantalla del dispositivo. Cuando la aplicación de devolución solicita al usuario que coloque el dispositivo de manera que la pantalla del dispositivo se refleje en un espejo, la aplicación de devolución puede generar el identificador para mostrarlo en la pantalla del dispositivo. La aplicación de devolución puede entonces analizar el reflejo del identificador que se muestra en el espejo a través de la cámara (por ejemplo, una cámara frontal del dispositivo) para determinar si se debe ajustar la posición del dispositivo. Por ejemplo, si el identificador está borroso en el reflejo del identificador en el espejo, se puede notificar al usuario y pedirle que ajuste la posición del dispositivo. En algunas formas de realización, una vez que el dispositivo está en la posición adecuada, la aplicación de devolución puede o no capturar una imagen del reflejo de la pantalla del dispositivo en el espejo que incluye el código identificador. En algunas formas de realización, la aplicación de devolución y/o el servidor pueden verificar que el código QR capturado esté asociado con el dispositivo (por ejemplo, el código QR puede decodificarse, compararse con información conocida del dispositivo, etc.).
La aplicación de devolución puede entonces generar uno o más segundos gráficos (por ejemplo, una pantalla verde, una pantalla blanca y/u otros gráficos) y permitir la captura del reflejo de la(s) segunda(s) imagen(es) en el espejo. FIG. 3B ilustra un ejemplo de posicionamiento de un dispositivo frente a un espejo, donde la aplicación de retorno en el dispositivo genera un segundo gráfico. En algunas formas de realización, la aplicación de devolución puede generar una notificación cuando se completa la captura de la(s) imagen(es), como se ilustra en la FIG. 3C. La(s) segunda(s) imagen(es) capturada(s) puede(n) analizarse para determinar el estado de la pantalla. Por ejemplo, la(s) segunda(s) imagen(es) capturada(s) puede(n) transmitirse al servidor para su análisis por la red neuronal del servidor.
En algunas formas de realización, la solicitud de devolución puede generar automáticamente un segundo gráfico una vez que el código identificador está enfocado, ha sido capturado y/o procesado (por ejemplo, verificado). Al utilizar un segundo gráfico una vez que se ha capturado y/o validado el código de identificación, la condición de la pantalla del dispositivo puede identificarse más fácilmente, en algunas formas de realización. Por ejemplo, la detección de una condición de pantalla puede determinarse más fácilmente usando un gráfico que sea fácilmente identificable por la red neuronal. En algunas formas de realización, el segundo gráfico puede generarse rápidamente inmediatamente antes de capturar una imagen del dispositivo de pantalla (por ejemplo, al fotografiar el reflejo de la pantalla del dispositivo) y/o durante un breve período de tiempo después de que la aplicación de devolución haya determinado que el dispositivo está en la posición adecuada (por ejemplo, el identificador está enfocado en la imagen capturada del primer gráfico) para inhibir el fraude. En algunas formas de realización, los segundos gráficos pueden generarse secuencialmente para permitir la captura secuencial de segundas imágenes asociadas. En algunas formas de realización, la captura de imágenes puede automatizarse para coordinar la generación de gráficos y la captura de imágenes.
En algunas formas de realización, la primera imagen puede capturarse y/o procesarse de modo que las segundas imágenes puedan etiquetarse (por ejemplo, adjuntarse y/o codificarse) con la primera imagen, partes de la misma y/o un identificador decodificado. La(s) segunda(s) imagen(es) puede(n) capturarse antes y/o después de la primera imagen, en algunas formas de realización. Al etiquetar la(s) segunda(s) imagen(es) con la primera imagen o parte de la misma (por ejemplo, información obtenida al decodificar el identificador), se puede reducir el fraude. Por ejemplo, se puede impedir que un usuario cargue una imagen de una pantalla de dispositivo diferente (por ejemplo, una pantalla de dispositivo que no sea del dispositivo) ya que una imagen cargada puede no incluir la parte codificada. En algunas formas de realización, la aplicación de devolución y/o el servidor pueden identificar segundas imágenes que no están etiquetadas para identificar imágenes fraudulentas de la(s) pantalla(s) del dispositivo.
La distancia a la que el dispositivo captura las imágenes también puede gestionarse, en algunas formas de realización. Por ejemplo, la distancia focal de la cámara puede ser establecida por la aplicación y la posición del dispositivo puede ajustarse hasta que el gráfico del identificador en la pantalla del dispositivo esté enfocado en la imagen obtenida por la cámara. En algunas formas de realización, el tamaño del identificador (p. ej., código QR) en la imagen puede determinar la distancia adecuada a la que el usuario debe colocar el dispositivo desde el espejo. En algunas formas de realización, la detección del ángulo de esquina puede facilitar la determinación de si el dispositivo está colocado en la posición predeterminada para la captura de imágenes con respecto al ángulo en donde el dispositivo está colocado próximo al espejo. Por ejemplo, la posición predeterminada para la captura de imágenes puede incluir colocar el dispositivo paralelo a la superficie del espejo y, por lo tanto, la detección del ángulo de esquina puede identificar los ángulos de esquina en la imagen y determinar los ángulos en cada esquina para determinar si el dispositivo estaba paralelo a la superficie del espejo en el momento de la captura de la imagen.
En algunas formas de realización, la aplicación de devolución puede ajustar uno o más componentes del dispositivo para facilitar la captura de una imagen de pantalla del dispositivo. Por ejemplo, la aplicación de devolución puede apagar el flash (por ejemplo, para evitar el deslumbramiento). Como otro ejemplo, la aplicación de devolución puede bloquear (por ejemplo, temporalmente) las notificaciones del dispositivo (por ejemplo, pancartas, alertas, etc.) para permitir que se genere una imagen del gráfico generado por la aplicación de devolución sin interfaces gráficas de usuario y/o superposiciones adicionales.
Después de que la aplicación de devolución captura las imágenes, se pueden analizar una o más de las imágenes para determinar el estado de la pantalla del dispositivo. Por ejemplo, la(s) imagen(es) a analizar pueden incluir el(los) segundo(s) gráfico(s). FIG. 4 ilustra una forma de realización de un proceso de ejemplo 400 para determinar una condición de la pantalla de un dispositivo (por ejemplo, determinar si la pantalla está dañada). Puede recibirse una imagen que incluye una pantalla de dispositivo (operación 410). Por ejemplo, el servidor puede recibir la imagen a través de la aplicación de devolución. La imagen se puede cargar automáticamente en el servidor y/o el usuario puede seleccionarla para cargarla a través de la aplicación de devolución. La imagen puede incluir uno o más gráficos generados por la aplicación de devolución y mostrados en la pantalla del dispositivo.
La imagen puede ser procesada por el servidor. Puede identificarse una parte seleccionada de la imagen recibida (operación 420). Por ejemplo, la imagen capturada por la aplicación de devolución puede incluir la pantalla del dispositivo y un área próxima a la pantalla del dispositivo. Puede identificarse una parte seleccionada de la imagen, como la pantalla del dispositivo y/o la parte activa de la pantalla del dispositivo (por ejemplo, la parte iluminada y/o la parte que responde al tacto). En algunas formas de realización, se puede seleccionar una porción seleccionada de la imagen recibida para reducir el tamaño de la imagen a la porción relevante para el análisis de la condición de la pantalla del dispositivo (por ejemplo, un análisis del área próxima al dispositivo puede no indicar si una pantalla está dañada). FIG. 5A ilustra una forma de realización de una imagen de ejemplo 500 que incluye una pantalla de dispositivo 510. Como se ilustra, la imagen incluye la pantalla de dispositivo 510 y un área próxima a la pantalla de dispositivo 520. La pantalla de dispositivo 510 puede detectarse utilizando la detección de esquina 535, como se ilustra en la imagen 530 en la FIG. 5B. FIG. 6B ilustra una forma de realización de una imagen de ejemplo 600 que incluye una pantalla de dispositivo 610. Como se ilustra, la imagen incluye la pantalla de dispositivo 510 y un área próxima al dispositivo 620. Los componentes del dispositivo se pueden identificar en la imagen utilizando la detección de bordes de los bordes 630 del dispositivo en la imagen, en algunas formas de realización. Como se ilustra, la pantalla del dispositivo 610, el micrófono, el altavoz y la carcasa se pueden identificar en la imagen. La identificación de uno o más componentes puede facilitar la determinación de la condición de la pantalla del dispositivo fuera del área activa de la pantalla del dispositivo y/o puede facilitar la identificación de daños en otros componentes (p. ej., una grieta sobre el micrófono puede indicar que el micrófono también está dañado).
En algunas formas de realización, el tamaño de la imagen puede alterarse (p. ej., recortarse o reducirse de otro modo) de modo que solo se muestre la parte seleccionada de la imagen en la imagen alterada. En algunas formas de realización, la parte seleccionada de la imagen recibida se puede etiquetar o identificar de otro modo en la imagen.
La parte seleccionada de la imagen puede ajustarse (operación 430). Por ejemplo, el servidor puede ajustar el contraste, el brillo, el color, la nitidez, la exposición, el sangrado, la alineación, la traducción de la imagen, el tamaño y/u otros aspectos apropiados de la imagen. En algunas formas de realización, el ruido puede reducirse para facilitar la identificación de daños en la pantalla, a diferencia de las marcas que son más atribuibles al ruido. FIG. 6A ilustra una forma de realización de una imagen de ejemplo 600 que incluye una pantalla de dispositivo 610 antes de que la imagen haya sido ajustada y la FIG. 6B ilustra un ejemplo de una imagen ajustada 650. La imagen ajustada 650 redujo el ruido 640 en el dispositivo (por ejemplo, líneas, sombras y/u otras características no atribuibles al daño de la pantalla).
La imagen ajustada puede dividirse en partes (operación 440). Por ejemplo, la imagen ajustada se puede dividir en una pluralidad de partes. FIG. 7 ilustra una forma de realización de un ejemplo de una imagen ajustada que incluye una pantalla de dispositivo 710 y las partes resultantes 720. La división puede recortar la imagen en partes pequeñas, identificando regiones de una imagen como partes y/o dividiendo la imagen de otro modo, según sea apropiado. El procesamiento de cada parte de la porción seleccionada de la imagen puede ser procesado más rápidamente por el servidor (por ejemplo, la red neuronal del servidor) que si el servidor procesara la imagen completa. Por lo tanto, dividir la imagen puede aumentar la velocidad a la que se procesa la imagen o la imagen ajustada. Por ejemplo, cada parte de la imagen ajustada puede ser analizada por un nodo de la red neuronal. Por lo tanto, dado que cada nodo está analizando una parte discreta de la imagen, el análisis se puede realizar más rápido que si un servidor analizara la imagen completa. En algunas formas de realización, dividir la imagen en partes puede aumentar la probabilidad de que se detecte una condición de pantalla y/o disminuir la probabilidad de que se identifique falsamente una condición de pantalla. Por ejemplo, dado que el daño de la pantalla puede extenderse a más de una parte de una imagen, el identificador de una alta probabilidad de daño de la pantalla en una o más partes adyacentes puede aumentar la probabilidad de daño de la pantalla en una primera parte. En algunas formas de realización, el tamaño y/o la forma del daño y si una parte adyacente incluye una probabilidad predeterminada de daño puede analizarse para determinar si la parte y, por lo tanto, el dispositivo incluye daño. Por ejemplo, se puede saber que las formas y/o tamaños seleccionados de grietas se extienden a través de múltiples partes adyacentes, y si varias partes adyacentes no incluyen una probabilidad predeterminada de daño, la probabilidad general de daño de la pantalla puede disminuir. Como otro ejemplo, algunas formas y/o tamaños seleccionados de chips pueden no extenderse a través de múltiples partes adyacentes de la imagen, y la falta de una probabilidad predeterminada de daño en las partes adyacentes puede no ajustar la probabilidad general de daño en la pantalla.
Puede hacerse una determinación de si una o más partes de la imagen muestran daño (operación 450). Por ejemplo, el servidor puede analizar la pieza para determinar si la pantalla está dañada (p. ej., grietas, abolladuras, astillas, daños en píxeles, etc.). La red neuronal del servidor puede realizar el análisis de una o más partes de la imagen ajustada en función de patrones y/o técnicas de identificación aprendidas de imágenes de pantalla de dispositivos anteriores y/o un conjunto de imágenes de pantalla conocidas (por ejemplo, que se sabe que tienen o no tienen daños en la pantalla). En algunas formas de realización, permitir que la red neuronal del servidor analice las piezas puede facilitar la actualización y el mantenimiento de la red neuronal y mejorar la precisión (p. ej., ya que pueden haberse analizado imágenes de pantalla de dispositivos anteriores de una pluralidad de dispositivos).
Se puede realizar una determinación de si la pantalla del dispositivo está dañada basándose en la determinación de si una parte muestra daño y/o si una parte adyacente muestra daño (operación 460). Si se determina que una parte está dañada (p. ej., decisión binaria como sí o no daño; la probabilidad de daño supera la probabilidad predeterminada, como el 50% de probabilidad de daño), el servidor puede identificar la(s) parte(s) adyacente(s). Puede determinarse si una o más partes adyacentes están dañadas y puede ser utilizado por el servidor (por ejemplo, la red neuronal) para determinar si la pantalla debe identificarse como dañada. Por ejemplo, si una parte tiene una probabilidad de daño del 20% y las 4 partes próximas tienen una probabilidad de daño del 50%, se puede determinar que la pantalla está dañada. Como otro ejemplo, si una parte tiene una probabilidad de daño del 50% y ninguna parte próxima tiene una probabilidad de daño superior al 25%, se puede determinar (por ejemplo, por el servidor) que la pantalla no está dañada. En algunas formas de realización, la probabilidad general de daño a la pantalla de un dispositivo puede no disminuir según las probabilidades de daño en partes adyacentes según las características del daño (por ejemplo, ubicación, tamaño y/o forma). En algunas formas de realización, a medida que aumenta la precisión de la red neuronal, puede disminuir el rango predeterminado de probabilidades asociadas con la(s) pantalla(s) dañada(s). Por ejemplo, el sistema puede indicar que cuando la probabilidad de daño de la pantalla es superior al 70% en una pieza, se puede determinar que existe daño de la pantalla; y, cuando aumenta la precisión de la red neuronal, el sistema puede indicar que cuando la probabilidad de daño de la pantalla es superior al 50% en una parte, se puede determinar que existe daño de la pantalla.
La(s) notificación(es) pueden transmitirse en base a la determinación de si la pantalla del dispositivo está dañada (operación 470). Por ejemplo, si se determina que la pantalla está dañada o no, el usuario puede recibir una notificación basada en esta determinación. En algunas formas de realización, si se determina que la pantalla del dispositivo está dañada, se puede permitir que el usuario impugne la determinación reiniciando una o más operaciones del proceso (por ejemplo, cambiar la posición del dispositivo y/o volver a tomar imágenes). En algunas formas de realización, se puede transmitir a la aplicación una notificación de si la pantalla del dispositivo está dañada y/o un precio basado en la condición de la pantalla del dispositivo para presentarlo a un usuario a través de la aplicación de devolución.
Las notificaciones pueden transmitirse en función de la determinación de que la red neuronal no pudo evaluar con precisión el estado de la pantalla del dispositivo. Por ejemplo, durante el procesamiento de la imagen, el servidor puede identificar que la pantalla completa no estaba en la imagen. La determinación se puede realizar calculando las relaciones de aspecto de pantalla esperadas, los valores de ángulo esperados de la pantalla, las dimensiones esperadas de un modelo, etc. El servidor puede indicar al usuario a través de la aplicación de devolución que capture otra imagen. El servidor puede proporcionar instrucciones al usuario a través de la aplicación de devolución sobre la mejor manera de colocar el dispositivo, en tiempo real.
El proceso 400 puede ser implementado por varios sistemas, como el sistema 100. Además, se pueden agregar, eliminar y/o modificar varias operaciones. En algunas formas de realización, el proceso 400 puede realizarse en combinación con otros procesos, como el proceso 200. Por ejemplo, la condición del dispositivo puede determinarse para la reventa del dispositivo. Dado que el precio de reventa y/o la demanda de un dispositivo en un mercado de reventa pueden basarse, al menos parcialmente, en la condición del dispositivo, la determinación automática de la condición del dispositivo y/o sus componentes puede facilitar la determinación del precio de oferta de un dispositivo (por ejemplo, que será revendido). En algunas formas de realización, la condición del dispositivo puede determinarse para facilitar la determinación de si un dispositivo puede ser reutilizado (por ejemplo, por otro usuario). Se puede determinar la condición y el otro usuario puede determinar un precio para ofrecer por el dispositivo, si un dispositivo se puede reutilizar, si usar el dispositivo tal como está y/o repararlo. En algunas formas de realización, la condición del dispositivo puede determinarse para su uso con una póliza de seguro de dispositivo. Por ejemplo, si un usuario quisiera obtener un seguro de dispositivo, la solicitud de devolución puede utilizarse para determinar la condición del dispositivo y/o sus componentes. La condición del dispositivo y/o un historial de la condición del dispositivo (p. ej., varias grietas en la pantalla que se han reparado) se pueden utilizar para determinar si se ofrece una póliza de seguro del dispositivo, un precio para establecer una póliza de seguro del dispositivo, y/o para verificar una condición del dispositivo proporcionado por el usuario. En algunas formas de realización, el usuario puede querer presentar un reclamo de seguro y la condición del dispositivo o sus componentes puede determinarse mediante la solicitud de devolución para enviar con la reclamación de seguro y/o para verificar partes de un reclamo de seguro.
En algunas formas de realización, en lugar del primer gráfico y/o código de identificación, se puede obtener y/o utilizar un IMEI y/u otro dispositivo y/o código específico del sistema operativo para facilitar la identificación de un dispositivo. Por ejemplo, el IMEI y/u otro código puede estar asociado con las imágenes de la pantalla capturadas a través de los segundos gráficos para identificar un dispositivo específico. Se puede guiar a un usuario (por ejemplo, a través de indicaciones en una interfaz gráfica de usuario de la aplicación de devolución) a la página de configuración del dispositivo donde se muestra el IMEI y/o se le puede solicitar al usuario que marque códigos en el marcador para mostrar el IMEI. El usuario puede capturar una captura de pantalla del IMEI (por ejemplo, a través de la cámara del dispositivo y/o el segundo dispositivo que se utiliza para capturar imágenes). La aplicación de devolución puede procesar la captura de pantalla (p. ej., a través de OCR) para identificar el IMEI. En algunas formas de realización, un usuario puede instalar un perfil desde una configuración de servidor similar a un servidor MDM. El perfil puede proporcionar el IMEI al servidor. El servidor puede pasar el IMEI a la aplicación de devolución. En algunas formas de realización, el perfil puede reducir la cantidad de pasos que realiza un usuario para proporcionar el IMEI a la solicitud de devolución. En algunas formas de realización, la aplicación de devolución puede realizar automáticamente una o más de estas capacidades. La aplicación de devolución puede utilizar el IMEI obtenido para etiquetar imágenes capturadas (p. ej., segundos gráficos) y/o garantizar la autenticidad (p. ej., a través del IMEI obtenido).
En algunas formas de realización, la condición de un primer dispositivo puede determinarse usando un segundo dispositivo. Por ejemplo, la pantalla de un primer dispositivo puede dañarse de tal manera que un usuario no pueda usar el dispositivo o no desee usarlo (p. ej., los dedos pueden dañarse debido a grietas en la pantalla, los chips de la pantalla están sueltos, la pantalla puede dañarse aún más por el uso, etc.). Por lo tanto, se puede utilizar un segundo dispositivo para capturar las imágenes del primer dispositivo. El primer y el segundo dispositivo pueden incluir la aplicación de devolución (por ejemplo, los procesadores del primer y segundo dispositivo pueden realizar una o más operaciones de la aplicación de devolución). Se puede recibir una solicitud de evaluación de una condición de una pantalla de un primer dispositivo o parte del mismo a través de una solicitud de devolución en un segundo dispositivo. Las aplicaciones de devolución en los dispositivos primero y segundo pueden estar en comunicación (por ejemplo, directa y/o indirectamente a través de la aplicación de devolución en el servidor). Por ejemplo, la aplicación de devolución en el segundo dispositivo puede comunicarse con la aplicación de devolución en el primer dispositivo para permitir que se presenten gráficos en la pantalla del primer dispositivo a través de la aplicación de devolución. Se puede presentar un primer gráfico en la pantalla del primer dispositivo a través de la aplicación de devolución en el primer dispositivo, y el gráfico puede incluir un primer código de identificación. Al menos una parte del primer gráfico presentado en el primer dispositivo puede capturarse a través de una cámara del segundo dispositivo. La aplicación de devolución puede tener acceso a las funciones de la cámara de un dispositivo y, por lo tanto, una aplicación de devolución puede permitir la captura de una imagen. Se pueden presentar uno o más segundos gráficos en la pantalla del primer dispositivo (por ejemplo, a través de la aplicación de devolución en el primer dispositivo) y al menos una parte de uno o más de los segundos gráficos presentados en el primer dispositivo se puede capturar a través de una cámara del segundo dispositivo. Una o más de las segundas imágenes pueden preprocesarse y/o procesarse para determinar una condición de la pantalla del primer dispositivo. La imagen del primer gráfico puede utilizarse para descodificar un código de identificación en el primer gráfico (por ejemplo, para verificar la identificación del primer dispositivo). En algunas formas de realización, el código de identificación puede incluir un código único para el primer dispositivo, como el número IMEI, que puede ser utilizado por la aplicación de devolución para verificar la identificación del primer dispositivo y/o las imágenes capturadas desde la pantalla del primer dispositivo.
En algunas formas de realización, el primer gráfico puede o no presentarse y/o capturarse cuando se utiliza un segundo dispositivo para determinar una condición de un primer dispositivo. Un nivel de seguridad y/o autenticación proporcionado por la aplicación de devolución que captura imágenes en el dispositivo para ser evaluado por la aplicación de devolución puede no ser tan fuerte como cuando se utiliza un segundo dispositivo para capturar las imágenes del primer dispositivo, que se está analizando. Por lo tanto, en algunas formas de realización, los reclamos de seguros, las valoraciones, la suscripción y/o los reembolsos pueden ajustarse para tener en cuenta el mayor riesgo en las operaciones engañosas de los usuarios.
En algunas formas de realización, el procesamiento de una segunda imagen puede incluir dividir la segunda imagen en partes; determinar si una o más de las partes de la segunda imagen incluyen daños; identificar partes adyacentes a una o más de las partes que incluyen daños; y determinar una condición de la pantalla del primer dispositivo en función de si se determina que una o más de las partes de la segunda imagen incluyen daño y si una o más de las partes adyacentes a una de las partes que se determina que incluyen daño también incluye daño. La pantalla y/o parte de la misma (área activa) puede o no identificarse a partir de la segunda imagen antes de dividir la imagen en partes. Por ejemplo, la red neuronal puede entrenarse para identificar daños en imágenes incluso si el área activa no está aislada, en algunas formas de realización.
En algunas formas de realización, una o más de las operaciones pueden realizarse con una o más imágenes adicionales. La determinación de si la pantalla del dispositivo está dañada puede basarse en el análisis de la imagen y las imágenes adicionales, en algunas formas de realización. En algunas formas de realización, la aplicación de devolución puede procesar o al menos procesar parcialmente la imagen antes de transmitir la imagen al servidor. En algunas formas de realización, es posible que la imagen no se divida antes del análisis. En algunas formas de realización, es posible que la imagen no se procese antes del análisis del estado de la pantalla. Se puede realizar una determinación de si la pantalla del dispositivo está dañada basándose en la determinación de si una parte muestra daño incluso si una parte adyacente no muestra daño, en algunas formas de realización. Por ejemplo, si una pieza muestra un 100 % de probabilidad de daño y/o una grieta profunda, se puede determinar que la pantalla del dispositivo está dañada. En algunas formas de realización, la aplicación de devolución captura la imagen, recibe la imagen y/o almacena la imagen (por ejemplo, en lugar de y/o además del servidor). En algunas formas de realización, la aplicación de devolución puede realizar o más de las operaciones (por ejemplo, en lugar de o junto con el servidor).
En algunas formas de realización, se puede utilizar una pluralidad de imágenes como segundo gráfico. Por ejemplo, la solicitud de devolución puede presentar y/o capturar un conjunto de segundas imágenes. El conjunto de segundas imágenes puede variar en coloración. El conjunto de segundas imágenes puede capturarse a través de una ráfaga de capturas (por ejemplo, capturando automáticamente una pluralidad de imágenes en un corto período de tiempo en lugar de capturar manualmente la pluralidad de imágenes). La ráfaga de capturas puede usar la misma o diferentes configuraciones de captura (por ejemplo, flash, exposición, distancia focal, etc.). La aplicación de devolución (por ejemplo, en el dispositivo y/o a través de las redes neuronales en el servidor) puede comparar una o más de las imágenes capturadas con un color de referencia predeterminado y/o una imagen que incluye el color de referencia predeterminado para identificar una segunda imagen capturada. para el procesamiento (por ejemplo, para determinar el estado de la pantalla). Las imágenes con calidades de imagen deficientes, como colores y/o borrosidad, pueden o no identificarse como segundas imágenes capturadas, en algunas formas de realización.
En algunas formas de realización, se pueden utilizar uno o más ajustes automáticos para capturar las imágenes. Por ejemplo, la ráfaga de captura puede variar el brillo, los colores, la orientación, la distancia focal, etc. para obtener una mejor consistencia en las imágenes capturadas (por ejemplo, para determinar con mayor precisión una condición de salud ya que la consistencia en las imágenes puede facilitar el análisis por redes neuronales). Por ejemplo, el brillo de la segunda imagen se puede variar durante la ráfaga de captura para proporcionar un conjunto de imágenes capturadas. Las imágenes del conjunto se pueden comparar con el color de referencia para identificar las segundas imágenes capturadas para su posterior procesamiento (p. ej., para determinar una condición de la pantalla). En algunas formas de realización, la aplicación de devolución puede solicitar al usuario que reoriente el dispositivo para obtener el conjunto de imágenes capturadas (p. ej., para permitir la captura de imágenes en diferentes ángulos, ya que se pueden tomar varias imágenes para cambiar la perspectiva de la grieta que podría no ser visible en un ángulo).
En algunas formas de realización, obtener varias imágenes capturadas en la misma sesión con diferentes configuraciones de pantalla puede aumentar la visibilidad de grietas en la red neuronal (por ejemplo, las imágenes pueden resaltar diferentes tipos y/o posiciones de grietas en la pantalla). En la solicitud de devolución se podrán utilizar segundos gráficos en diferentes colores para facilitar la identificación de pantallas dañadas. En algunas formas de realización, iii. Múltiples ángulos de inclinación con interfaz de usuario para guiar el posicionamiento adecuado
En algunas formas de realización, el conjunto de imágenes capturadas puede compararse con imágenes de referencia (p. ej., color, intensidad, etc.) para seleccionar qué imágenes procesar más para determinar una condición de un dispositivo. Por ejemplo, la aplicación de retorno puede seleccionar una imagen más cercana al brillo/color/intensidad de las imágenes utilizadas para el entrenamiento para mejorar los resultados de precisión. En algunas formas de realización, usando operaciones de la aplicación de devolución, el color se toma sobre un área de la imagen que se sabe que es la pantalla. El color se compara con un color de referencia que se sabe que muestra mejor la visibilidad de grietas y minimiza otros defectos, como reflejos, malos colores, etc. La imagen con el color más cercano al color de referencia se envía a la red neuronal para su procesamiento. La mejora de la consistencia de la imagen puede hacer que el análisis (p. ej., realizado por la red neuronal de la aplicación de retorno) dependa menos de las condiciones de iluminación.
En algunas formas de realización, la captura de imágenes en ráfaga puede facilitar la captura de una o más imágenes (por ejemplo, con gráficos iguales o diferentes), en las que los niveles de luminosidad no son los mismos. Entonces, uno o más de los colores de la imagen se pueden hacer coincidir con un color de referencia para identificar la imagen capturada (por ejemplo, del conjunto de imágenes capturadas en ráfaga) que es la más cercana al color de referencia. El uso de la captura de ráfagas con diferentes niveles de luminosidad puede permitir una mayor consistencia y/o reducir la variabilidad en el proceso de captura de imágenes y/o las imágenes capturadas enviadas a la red neuronal para su análisis. Esto puede reducir errores en el análisis, en algunas formas de realización.
En algunas formas de realización, la captura del primer gráfico puede proporcionar la(s) configuración(es) de exposición inicial. Por ejemplo, la imagen del primer gráfico puede obtenerse y analizarse para identificar un ajuste de exposición inicial (por ejemplo, si las imágenes son demasiado brillantes, borrosas, etc.). Generar la configuración de exposición inicial puede mejorar la captura de imágenes.
En varias formas de realización, se puede identificar una condición de una o más pantallas de un dispositivo (por ejemplo, electrónico como un dispositivo móvil, ordenador portátil, etc.). La condición del dispositivo puede determinarse usando operaciones del dispositivo y/o operaciones de otros dispositivos. Por ejemplo, si un primer dispositivo carece de cámara y/o carece de una cámara operativa, entonces se puede utilizar un segundo dispositivo para capturar imágenes del primer dispositivo o partes del mismo (por ejemplo, pantalla, parte frontal, etc.). Como otro ejemplo, si los componentes del primer dispositivo hacen que el primer dispositivo no funcione al menos parcialmente (p. ej., la pantalla se agrieta de tal manera que el uso puede dañar al usuario y/o dañar aún más el dispositivo, la pantalla táctil no funciona, los píxeles atascados interfieren con el uso, etc.), luego se puede utilizar un segundo dispositivo para capturar imágenes del primer dispositivo o partes del mismo (por ejemplo, pantalla, parte frontal, parte posterior, etc.).
En algunas formas de realización, se puede utilizar un primer dispositivo para capturar imágenes del primer dispositivo colocando el dispositivo de manera que se pueda capturar una imagen del dispositivo en una superficie reflectante, como un espejo. Los riesgos asociados con el fraude pueden reducirse utilizando la propia cámara de un dispositivo para capturar imágenes (por ejemplo, de modo que no se presenten imágenes de dispositivos similares en su lugar). Una solicitud de evaluación de la condición de un componente, como una pantalla, de un primer dispositivo o parte del mismo puede recibirse a través de una solicitud de devolución en el primer dispositivo. La solicitud de devolución puede residir en el primer dispositivo y/o ser accesible por el primer dispositivo (por ejemplo, almacenada de forma remota). La solicitud de devolución puede presentar una o más interfaces gráficas de usuario para facilitar la comunicación con un usuario y/o para presentar gráficos en una pantalla del dispositivo.
La solicitud de devolución puede presentar uno o más gráficos en una pantalla del primer dispositivo (por ejemplo, a través de una interfaz gráfica de usuario generada por la aplicación de devolución) para ser capturados por la cámara del primer dispositivo. Por ejemplo, se puede generar y/o presentar un primer gráfico en una pantalla (p. ej., un componente de visualización) del primer dispositivo (p. ej., mediante la aplicación de devolución). El primer gráfico puede incluir uno o más primeros códigos de identificación, como un IMEI asociado con el dispositivo, un número de codificación generado por la aplicación de devolución y asociado con el dispositivo, un código QR, etc. El código de identificación puede ser analizado (por ejemplo, decodificado, en comparación con una lista de códigos, etc.) para verificar la identidad del primer dispositivo. Al menos una parte de una primera imagen del primer gráfico puede ser capturada por la cámara del primer dispositivo. La primera imagen puede incluir un reflejo del primer gráfico sobre una superficie reflectante, como un espejo. El primer gráfico y/o el código de identificación del primer gráfico pueden etiquetarse o incrustarse de otro modo en otras imágenes capturadas (por ejemplo, segundas imágenes que incluyen segundos gráficos). La aplicación de devolución puede utilizar el primer gráfico para determinar la configuración inicial (p. ej., brillo, contraste, orientación, distancia a la superficie reflectante, etc.) que se utilizará en la presentación y/o captura de gráficos posteriores. En algunas formas de realización, es posible que no se utilice el primer gráfico (por ejemplo, generado y/o capturado).
La aplicación de devolución puede generar y/o presentar otras imágenes para facilitar la identificación de daños en el dispositivo o parte del mismo (por ejemplo, la pantalla). Se pueden generar y/o presentar uno o más segundos gráficos (por ejemplo, a través de interfaces gráficas de usuario de la aplicación de devolución) en la pantalla del primer dispositivo. Los segundos gráficos pueden incluir gráficos configurados para facilitar la identificación de daños (p. ej., grietas, magulladuras, astillas, etc.) por parte de la aplicación de devolución (p. ej., utilizando una red neuronal entrenada). Por ejemplo, el segundo gráfico puede incluir un color sólido, color variable, patrones, imágenes, etc. En algunas formas de realización, el segundo gráfico puede incluir un conjunto de gráficos en los que las imágenes que se muestran en el gráfico cambian y/o la configuración sirve para presentar el segundo gráfico en el cambio de pantalla. Por ejemplo, se puede cambiar la luminosidad de la imagen presentada para presentar el mismo segundo gráfico de diferentes maneras para la captura. En algunas formas de realización, se puede generar y/o presentar un solo segundo gráfico (por ejemplo, un gráfico sólido verde). Se puede capturar al menos una parte de una o más de las segundas imágenes de al menos uno de los segundos gráficos (por ejemplo, a través de una cámara del primer dispositivo). Una o más de las segundas imágenes pueden incluir un reflejo de al menos uno de los segundos gráficos en la superficie reflectante, como un espejo. La imagen capturada puede incluir más que la pantalla (por ejemplo, la cara frontal, el área próxima al dispositivo, etc.). La aplicación de devolución puede ser capaz de controlar y/o permitir que el usuario controle el componente de cámara del primer dispositivo. La aplicación de devolución podrá tener acceso a las imágenes captadas por la cámara del primer dispositivo.
En algunas formas de realización, las imágenes capturadas (por ejemplo, la primera y/o la segunda imagen capturada) pueden ser preprocesadas. El procesamiento previo puede ser realizado por la aplicación de devolución en el dispositivo del usuario y/o en el servidor (por ejemplo, usando la red neuronal entrenada). El preprocesamiento puede identificar imágenes de mala calidad, por ejemplo, identificando partes de la imagen capturada que no están asociadas con la imagen presentada y/o daños en la pantalla (por ejemplo, obstrucciones, reflejos de flash, etc.). El procesamiento previo puede identificar imágenes parciales y/o imágenes borrosas. En algunas formas de realización, la determinación por parte de la aplicación de devolución en el procesamiento previo de que la imagen capturada es de mala calidad puede hacer que la aplicación de devolución rechace la imagen y/o solicite la recaptura de la imagen. Al volver a capturar la imagen, la aplicación de retorno puede regenerar y/o presentar los gráficos en la pantalla del primer dispositivo. La aplicación de devolución puede modificar el gráfico, la configuración del dispositivo y/o solicitar al usuario que ajuste la captura (por ejemplo, restringir el flash, ajustar la orientación, etc.). En algunas formas de realización, se pueden procesar imágenes de baja calidad para identificar una condición de un componente del dispositivo.
Una o más de las segundas imágenes pueden procesarse para determinar una condición de un componente, tal como la pantalla, del primer dispositivo. El procesamiento de la(s) segunda(s) imagen(es) puede(n) incluir dividir la segunda imagen en partes y determinar si una o más de las partes de la segunda imagen están dañadas. La segunda imagen puede dividirse en partes para permitir un procesamiento más rápido (p. ej., en comparación con el procesamiento de la imagen completa) y mejorar la precisión (p. ej., al permitir el análisis de regiones próximas para determinar la probabilidad de daño). En algunas formas de realización, las partes adyacentes a una o más de las partes que presentan daños pueden identificarse como partes adyacentes. Las partes adyacentes pueden o no presentar daños.
Se puede determinar una condición de la pantalla del primer dispositivo en función de si se determina que una o más de las partes de una o más de las segundas imágenes incluyen daños y si una o más de las partes adyacentes (por ejemplo, una parte próxima a una parte específica) a una de las partes determinadas para incluir daño también incluye daño. Por ejemplo, la red neuronal puede entrenarse para identificar patrones de daño comunes y la información relativa a partes adyacentes (por ejemplo, si las partes próximas están dañadas y/o no dañadas) puede usarse para determinar si una parte está dañada.
En algunas formas de realización, la determinación de si un componente, como la pantalla del primer dispositivo, está dañado puede incluir información adicional sobre el daño, como una clasificación (p. ej., clasificación de gravedad, clasificación del tipo de daño, etc.), ubicación del daño, etc. La información adicional sobre daños y/o la determinación de si el componente del dispositivo está dañado puede presentarse al usuario y/o utilizarse en otras operaciones de la solicitud de devolución (p. ej., para reducir la valoración, para reclamos de seguros, reclamos de garantía, etc.).
Los procesos descritos pueden ser implementados por varios sistemas, como el sistema 100. Además, se pueden agregar, eliminar y/o modificar varias operaciones. En algunas formas de realización, los procesos o partes de los mismos se pueden realizar en combinación con operaciones de otros procesos tales como el proceso 200 y/o 400. Por ejemplo, la captura de segundas imágenes puede incluir una captura en ráfaga de segundas imágenes. La configuración del dispositivo puede modificarse ya que se permiten capturas en ráfaga. Las imágenes capturadas pueden compararse con una imagen de referencia para identificar cuál del conjunto de imágenes capturadas procesar. Por ejemplo, se puede seleccionar una imagen con el color más cercano a un color de referencia (por ejemplo, el brillo y/o el contraste se pueden ajustar en el dispositivo para obtener diferentes colores en la segunda imagen a medida que se produce la ráfaga de capturas de imágenes). El conjunto de imágenes capturadas puede procesarse previamente para identificar qué imágenes pueden procesarse. Como otro ejemplo, el procesamiento de la segunda imagen capturada puede incluir la generación de una tercera imagen en la que las partes de la imagen que no están asociadas con la pantalla del dispositivo se eliminan de la imagen (por ejemplo, se recortan). Esta tercera imagen puede ser analizada por al menos partes de la red neuronal (p. ej., dividida en partes y/o analizada) para identificar si la pantalla está dañada. En algunas formas de realización, se pueden procesar imágenes de baja calidad para identificar una condición de un componente de un dispositivo. Por ejemplo, se puede procesar una imagen borrosa y la red neuronal puede tener en cuenta la borrosidad de la imagen en el análisis (p. ej., reduciendo la sensibilidad de la detección de daños para evitar una identificación excesiva de daños).
En algunas formas de realización, una o más de las operaciones pueden ser realizadas por un segundo dispositivo para obtener una condición de un primer dispositivo. Por ejemplo, el segundo dispositivo puede incluir una cámara para capturar imágenes presentadas en el primer dispositivo por la aplicación de devolución. La aplicación de devolución en el segundo dispositivo puede permitir la captura de las imágenes y/o la presentación coordinada de las imágenes en el primer dispositivo, el procesamiento (p. ej., preprocesamiento y/o procesamiento) de las imágenes capturadas y/o la identificación de una condición del primer dispositivo. En algunas formas de realización, el mayor cambio de fraude asociado con la captura de imágenes utilizando un dispositivo diferente al dispositivo, cuya condición se determina, puede tenerse en cuenta en la suscripción de seguros, medidas de seguridad (p. ej., inspección física al recibir el dispositivo para intercambio, venta y/o devolución) y/o descuentos (por ejemplo, reducción en el valor determinado y/o precio de venta).
En algunas formas de realización, la captura de imágenes puede estar al menos parcialmente automatizada. Cuando la imagen satisface los ajustes de exposición inicial, se puede obtener la imagen. Por ejemplo, un usuario puede mover un teléfono y cuando el teléfono está en la posición óptima (por ejemplo, satisface los ajustes de exposición iniciales), la imagen puede capturarse automáticamente. La configuración de exposición inicial puede incluir criterios relacionados con la ubicación de la cámara en relación con la pantalla y/o el espejo, el ángulo de inclinación, la configuración del flash, la configuración de brillo, etc. En algunas formas de realización, el brillo de la pantalla del teléfono de una configuración de exposición inicial puede calibrarse antes de posicionar el código de identificación del teléfono. En algunas formas de realización, el brillo se puede ajustar durante la duración de la calibración con diferentes configuraciones de brillo y exposición. Brillo en el que se puede seleccionar una visibilidad predeterminada de un código de identificación, como un código QR, como brillo de referencia en las condiciones de iluminación actuales. Este brillo de referencia se puede utilizar como valor medio para la captura de múltiples imágenes con diferente brillo, en algunas formas de realización.
En algunas formas de realización, las imágenes capturadas pueden ser procesadas por la red neuronal a resolución completa o a una resolución más baja. La imagen enviada a diferentes niveles puede variar o no. Por ejemplo, las imágenes capturadas pueden pasar a través de todos los niveles de la red neuronal a máxima resolución y seguir siendo un archivo PNG. En algunas formas de realización, cuando la imagen se envía a un primer nivel de la red neuronal, la imagen puede reducirse (por ejemplo, a 128x256). La imagen muestreada hacia abajo puede enviarse a una o más de las capas de la red neuronal como una matriz de intensidades de color. Por ejemplo, Byte(rojo) Byte(verde) Byte(azul), Byte(rojo), Byte(verde), Byte(azul) serían 2 píxeles de píxel (0,0) y píxel (0,1). En algunas formas de realización, la primera capa de la red neuronal puede ser un procesamiento previo (por ejemplo, devolver que la imagen es de mala calidad y no procesable y/o la imagen es procesable). En algunas formas de realización, cuando la imagen capturada se envía a la capa final, la imagen capturada se puede muestrear mediante un parche y una diapositiva (p. ej., el parche puede ser 32, de modo que los mosaicos sean 32 x 32, y la diapositiva puede ser 17, de modo que la red toma un mosaico de 1, 1 y luego el siguiente mosaico se toma de 1, 17; y/o cualquier otro parche y/o diapositiva apropiado). Puede haber o no una superposición de los mosaicos que se envían a las capas internas de la red neuronal. La muestra (p. ej., un mosaico de 32x32) se puede enviar a una capa de red neuronal final como una matriz de valores de bytes RGB que representan las intensidades de color. En algunas formas de realización, esto se puede hacer a lo largo y/o a lo ancho. La red neuronal puede comenzar en cualquier punto apropiado de la imagen capturada. En algunas formas de realización, comenzar aproximadamente en el medio puede tener una ventaja de velocidad en el procesamiento, ya que la pantalla está en el centro de la imagen y los bordes contienen un fondo que puede ignorarse.
En algunas formas de realización, el procesamiento previo puede identificar si la imagen capturada es de mala calidad. El procesamiento previo puede ser realizado por la red neuronal (por ejemplo, la primera capa de la red neuronal), en algunas formas de realización. Por ejemplo, la red neuronal puede identificar una imagen deficiente, como una imagen granulada; imagen borrosa; mal contraste (p. ej., oscuro); mal color (p. ej., brillo); imagen no coincidente (p. ej., no es un teléfono cuando se espera un teléfono); obstrucciones como dedos, fundas de teléfonos; pantallas parciales, etc.
En algunas formas de realización, la aplicación de devolución (p. ej., la red neuronal de la aplicación de devolución) puede identificar una condición de un dispositivo o parte del mismo como dañada o no dañada. La aplicación de devolución puede identificar el tipo de daño, la gravedad del daño, etc. Por ejemplo, la red neuronal puede estar entrenada para identificar el tipo de daño y/o la gravedad del daño. La red neuronal puede calificar la gravedad del daño. Por ejemplo, la salida de la red neuronal puede proporcionar detalles sobre la condición, como grietas, magulladuras, píxel atascado, defecto menor, bueno, etc. En algunas formas de realización, la condición y/o la salida de la red neuronal pueden proporcionarse en un formato de salida, como, entre otros, un entero simple 0-x, binario 000001 y/o porcentajes que suman 1,0.
En algunas formas de realización, la red neuronal puede tener cero niveles (por ejemplo, antes del procesamiento). En algunas formas de realización, se puede facilitar el procesamiento y/o se puede mejorar la precisión utilizando una red neuronal con más de un nivel (p. ej., incluida la capa de procesamiento final). La solicitud de devolución se puede personalizar en función de los parámetros deseados. Por ejemplo, identificar imágenes borrosas puede ser más fácil y/o más rápido que determinar una obstrucción y, por lo tanto, una aplicación de devolución que solo procesa previamente para identificar imágenes borrosas puede tener menos capas que una aplicación de devolución que procesa obstrucciones y/u otras calidades de imagen deficientes. En algunas formas de realización, la guía proporcionada por la aplicación de devolución puede permitir una mejor captura de imágenes y se puede utilizar una red neuronal de una sola capa (por ejemplo, la capa final) para identificar defectos.
En algunas formas de realización, la aplicación de devolución puede procesar imágenes capturadas de baja calidad. Por ejemplo, en lugar de excluir imágenes basadas en el color y/o el desenfoque, la solicitud de devolución puede procesar una calificación y/o intensidades de color para las piezas. La solicitud de devolución puede o no inhibir el procesamiento de otras partes. Por ejemplo, una calificación puede ser un valor, color y/u otra indicación, como una calificación de 0 puede indicar que la imagen no está borrosa y una calificación de 255 puede indicar que esta imagen está muy borrosa. La escala de calificación puede ser lineal o no lineal. La aplicación de retorno (p. ej., red neuronal) puede ajustarse (p. ej., aumentar y/o disminuir la sensibilidad) en función de la calificación. Por ejemplo, la aplicación de retorno puede disminuir la sensibilidad/agresividad al identificar grietas en una imagen capturada de clasificación 255. Por lo tanto, se puede procesar una variedad de imágenes defectuosas y/o se pueden procesar de forma aproximadamente precisa basándose en imágenes de menor calidad.
En algunas formas de realización, la aplicación de devolución puede capturar y/o procesar otras partes del dispositivo, como se describe. Por ejemplo, la solicitud de devolución puede facilitar la evaluación de grietas en la carcasa del teléfono móvil (por ejemplo, en la parte delantera y/o trasera).
En algunas formas de realización, la determinación de si la pantalla del dispositivo está dañada puede ser una determinación del grado de daño, ya sea el daño asociado con una o más categorías de daño (por ejemplo, perfecto, agrietado, rayado, reflejo), la probabilidad de que el existe daño, y/o cualquier otra categorización apropiada del daño. Por ejemplo, la determinación de si la pantalla del dispositivo está dañada puede ser una determinación de que la pantalla está agrietada o no. En algunas formas de realización, la determinación puede arrojar un resultado entre -1 y 1, por ejemplo, donde los valores inferiores a 0 están asociados con pantallas de dispositivos no rotas y los valores superiores a 0 están asociados con pantallas de dispositivos rotas. Por ejemplo, en algunas formas de realización, el valor puede estar asociado con la probabilidad de que la pantalla del dispositivo esté dañada y una pantalla del dispositivo puede identificarse como dañada o agrietada si la probabilidad es mayor que un valor predeterminado. Por ejemplo, si existe una certeza superior al 90% de que la pantalla del dispositivo está rota (p. ej., >0,80), el dispositivo y/o la pantalla del dispositivo pueden identificarse como rotos. En algunas formas de realización, el análisis se puede realizar para cada parte, un conjunto de partes adyacentes, todas las partes del dispositivo y/o el dispositivo en general.
En algunas formas de realización, se puede determinar la ubicación, el alcance del daño en la pantalla del dispositivo (p. ej., la profundidad, en qué capa(s), etc.) y/o si el daño afecta a otros componentes (p. ej., mediante la red neuronal del sistema). Por ejemplo, dado que el daño puede detectarse en partes discretas, en algunas formas de realización, la ubicación aproximada del daño puede determinarse y/o transmitirse al usuario. En algunas formas de realización, la ubicación del daño puede ajustar el precio base ofrecido por el dispositivo. Por ejemplo, una pequeña grieta en la pantalla que no está en el área activa de la pantalla del dispositivo puede bajar un precio menos que una grieta en el área activa de la pantalla del dispositivo. En algunas formas de realización, es posible que se notifique al usuario la ubicación del daño en la pantalla. La información puede ayudar a los usuarios a determinar si el daño de la pantalla identificado es realmente un daño de la pantalla o una marca en el dispositivo que se puede quitar. En algunas formas de realización, se puede determinar la extensión del daño para facilitar la identificación de si la pantalla se puede reparar o si es más apropiado reemplazarla (por ejemplo, cuando se repara un dispositivo).
En algunas formas de realización, se puede marcar la ubicación de las partes de la pantalla del dispositivo en las que se detecta el daño (por ejemplo, color, patrón, banderas y/o cualquier otra indicación apropiada). FIG. 8A ilustra una forma de realización de una imagen capturada de ejemplo de una pantalla de dispositivo. Como se ilustra, la pantalla del dispositivo incluye grietas visibles en la imagen capturada. La imagen capturada se divide en partes y se analiza para determinar si una o más de las partes tienen una probabilidad de daño mayor que una probabilidad predeterminada. En algunas formas de realización, el hecho de que las partes adyacentes incluyan daños puede determinar si la pantalla del dispositivo y/o partes de la misma tienen daños. El sistema puede identificar piezas con daños superiores a una probabilidad predeterminada con una bandera. FIG. 8B ilustra una forma de realización de una interfaz generada como resultado de una determinación de si la pantalla del dispositivo ilustrada en la FIG. 8A está dañado. La interfaz puede generarse y presentarse al usuario (por ejemplo, a través de la aplicación de devolución y/o un sitio web acoplado al servidor). Como se ilustra, las banderas más oscuras (p. ej., rojas) indican piezas identificadas como piezas dañadas. El usuario puede ver las banderas, impugnar las banderas que cree que no son partes dañadas de la pantalla del dispositivo y/o verificar las partes dañadas. FIG. 8C ilustra una forma de realización de una imagen capturada de ejemplo de una pantalla de dispositivo. Como se ilustra, la pantalla del dispositivo no está dañada. Así, cuando se analiza la imagen de la pantalla del dispositivo, no se generan banderas. FIG. 8D ilustra una forma de realización de una interfaz generada como resultado de una determinación de si la pantalla del dispositivo ilustrada en la FIG. 8C está dañada. Como se ilustra, la determinación automática de la condición de la pantalla del dispositivo no encontró ningún daño y, por lo tanto, no marcó ninguna parte de la pantalla del dispositivo como dañada. Como otro ejemplo, la FIG. 8E ilustra una forma de realización de una imagen capturada de ejemplo de una pantalla de dispositivo. Como se ilustra, la pantalla del dispositivo incluye daños. FIG. 8F ilustra una forma de realización de una interfaz generada como resultado de una determinación de si la pantalla del dispositivo ilustrada en la FIG. 8E está dañada. Como resultado de la determinación de la condición de la pantalla del dispositivo, la aplicación de valor puede marcar partes de la pantalla del dispositivo que están dañadas. Las banderas más oscuras (p. ej., banderas rojas) ilustran partes del dispositivo que el sistema ha etiquetado como dañadas.
En varias formas de realización, la determinación de la condición de la pantalla del dispositivo (p. ej., si la pantalla del dispositivo está dañada o no) se puede usar para determinar una condición del dispositivo y/o para ensayar adicionalmente un dispositivo (p. ej., de acuerdo con las técnicas utilizadas y/o técnicas descritas). Por ejemplo, cuando una pantalla se agrieta cerca de un componente del dispositivo y/o cuando una grieta tiene un tamaño (por ejemplo, profundidad y/o ancho) mayor que un tamaño máximo predeterminado, se pueden realizar más pruebas para determinar si uno o más otros componentes (p. ej., micrófono, altavoz, capa de pantalla táctil y/o carcasa) están dañados. Por ejemplo, se puede probar el funcionamiento del componente (por ejemplo, automáticamente, semiautomáticamente y/o manualmente). La condición del dispositivo (p. ej., los componentes, incluida la pantalla), los datos de mercado, los precios de reventa actuales y/u otra información pueden utilizarse para determinar un precio. El precio puede transmitirse al usuario y/o mostrarse a través de la aplicación de devolución. El usuario podrá vender el dispositivo en base al precio ofrecido en la solicitud de devolución, en algunas formas de realización.
En algunas formas de realización, si se determina que la pantalla de un dispositivo está dañada, se puede realizar una prueba de pantalla táctil. La prueba de la pantalla táctil se puede realizar a través de la aplicación de devolución. Por ejemplo, la aplicación de devolución puede pedirle a un usuario que proporcione información según las instrucciones de la aplicación de devolución, y se puede tomar una determinación con respecto a la condición de la pantalla táctil (por ejemplo, dañada o no dañada, ubicación del daño y/o extensión de daño) basada en la entrada proporcionada por el usuario. Los resultados de la prueba de la pantalla táctil se pueden utilizar para determinar la profundidad del daño a la pantalla del dispositivo y/o el daño a uno o más componentes del dispositivo.
En algunas formas de realización, la calificación de un dispositivo puede basarse al menos parcialmente en la determinación de si la pantalla del dispositivo está dañada; la ubicación del daño en una pantalla si el daño existe; el tamaño del daño a la pantalla, si existe daño; si uno o más componentes del dispositivo están dañados, valor de reventa; valor de reciclaje/desecho; y/u otros criterios apropiados. Por ejemplo, si el dispositivo no tiene daños en la pantalla, el dispositivo puede recibir una primera calificación. Si el dispositivo tiene daños en la pantalla, se puede asignar al dispositivo un segundo grado, que es más bajo que el primero. Si un dispositivo tiene daños en la pantalla y en la pantalla táctil, se puede asignar al dispositivo un tercer grado, inferior al segundo grado. La calificación del dispositivo puede estar asociada con el precio que se ofrece al usuario por la venta del dispositivo y/o el precio al que se revenderá el dispositivo (por ejemplo, en el mercado, a un tercero, etc.).
En algunas formas de realización, dado que la evaluación del daño a la pantalla de un dispositivo puede hacerse menos subjetiva (p. ej., dado que el daño puede determinarse automáticamente) y/o más consistente (p. ej., ubicación y/o tamaño), la evaluación general de un el dispositivo puede ser más detallada y/o la clasificación se puede realizar en más niveles posibles. Dado que las diferencias más pequeñas entre las condiciones de un dispositivo pueden proporcionarse de manera más consistente y rápida. Por ejemplo, el daño de la pantalla que no se superpone con las áreas activas de una pantalla puede calificarse como una pantalla dañada, pero con una calificación más alta que una pantalla con daño en el área activa de la pantalla.
En algunas formas de realización, la(s) imagen(es) puede(n) almacenarse en una memoria del dispositivo y/o en una memoria acoplada al dispositivo (por ejemplo, almacenamiento en la nube y/o memoria del servidor). La aplicación de devolución puede administrar la carga de la imagen al servidor según la conexión de red del dispositivo (por ejemplo, LTE, Wi-Fi u otra).
En algunas formas de realización, un ser humano (por ejemplo, un operador de control de calidad) puede verificar el daño de la pantalla y esta retroalimentación se puede proporcionar a la red neuronal para aumentar la precisión y/o permitir ajustes al análisis proporcionado por la red neuronal del servidor.
Aunque el estado de la pantalla se ha descrito en términos de daños debido a grietas, otros daños, como daños a píxeles (p. ej., rotos, atascados, etc.), magulladuras, etc., también pueden determinarse a través de la solicitud de devolución. Por ejemplo, la aplicación puede hacer que uno o más gráficos se muestren en la pantalla del dispositivo y que se capture la imagen del gráfico en la pantalla del dispositivo (por ejemplo, a través de una cámara en el dispositivo). Por ejemplo, el gráfico puede incluir un solo color presentado en la pantalla, un gráfico con una variedad de colores, un gráfico con patrones y/o un gráfico diseñado para facilitar la identificación de daños en la pantalla. El color presentado en las imágenes puede analizarse (p. ej., por la red neuronal del servidor) para determinar si uno o más píxeles no presentan el color con precisión. En algunas formas de realización, se pueden usar medios k para reconocer características con aproximadamente el mismo color en la imagen. Por lo tanto, el daño a los píxeles puede identificarse basándose al menos parcialmente en el análisis de la(s) imagen(es) capturada(s).
Aunque las formas de realización pueden incluir redes neuronales disponibles comercialmente, en algunas formas de realización, la red neuronal puede ser una red neuronal personalizada capaz de aprender patrones, reconocer grietas, asignar una probabilidad de daño existente en un dispositivo y/u otras funciones apropiadas. En algunas formas de realización, la red neuronal puede incluir un sistema basado en la nube al que puede acceder la aplicación de devolución.
En algunas formas de realización, la red neuronal se puede almacenar y operar en el dispositivo.
En algunas formas de realización, la red neuronal se puede entrenar utilizando herramientas de aprendizaje que permiten que la red neuronal aprenda a identificar una condición de una pantalla de un dispositivo. FIGS. 9A, 10A y 11A ilustran formas de realización de herramientas de aprendizaje, y las FIGS. 9B, 10B y 11B ilustran segundas imágenes asociadas. FIGS. 9C, 10C y 11C ilustran ejemplos de procesamiento de las segundas imágenes por la red neuronal, y las FIGS. 12A-12B ilustran ejemplos de la precisión y la entropía cruzada lograda por la red neuronal. La red neuronal puede incluir cero o más capas. En algunas formas de realización, la red neuronal puede tener varias capas para facilitar el procesamiento y la identificación de una condición de una pantalla de un dispositivo a partir de imágenes capturadas. La red neuronal se puede entrenar proporcionando imágenes de ejemplo, como las imágenes capturadas de ejemplo ilustradas en las FIGS.
9B-11B e imágenes de ejemplo correspondientes en las que se identifica el daño, como se ilustra en las FIGS. 9A-11 A. Como se ilustra en las FIGS. 9B-11B, el daño se identifica (p. ej., por un color y/o patrón diferente). La red neuronal puede procesar las imágenes capturadas de ejemplo, como las imágenes 9B-11B según una o más de las operaciones descritas. Por ejemplo, las imágenes capturadas pueden dividirse en partes y la red neuronal puede determinar cuál de las partes incluye daño. Este resultado puede compararse con las herramientas de aprendizaje de modo que la red neuronal pueda aprender y volverse más precisa, como se ilustra en las FIGS. 12A-12B.
Aunque se ha descrito que los espejos proporcionan la superficie reflectante para reflejar la imagen presentada en la pantalla del dispositivo, se puede usar cualquier superficie reflectante en lugar de y/o junto con un espejo. Por ejemplo, se puede usar una pieza reflectante de metal para capturar imágenes de la pantalla de un dispositivo y/o una pieza reflectante de plástico.
Aunque los usuarios se han descrito como seres humanos, un usuario puede ser una persona, un grupo de personas, una persona o personas que interactúan con una o más computadoras y/o un sistema informático (por ejemplo, un dispositivo, un robot).
En varias formas de realización, se ha descrito un dispositivo. El dispositivo puede ser cualquier dispositivo apropiado, como un teléfono inteligente, una tableta, un ordenador portátil, una consola de juegos, un reproductor multimedia portátil (p. ej., un lector electrónico y/o un reproductor de video), dispositivos portátiles (p. ej., relojes, joyas, etc.) y/o cámara de video capaz de ejecutar la aplicación y/o tomar fotos del dispositivo. El dispositivo puede incluir memoria, un procesador y una cámara (por ejemplo, un componente capaz de capturar imágenes). El dispositivo puede almacenar la solicitud de devolución en una memoria y el procesador puede ejecutar la solicitud de devolución para realizar una o más de las operaciones descritas. En algunas formas de realización, el dispositivo puede realizar una o más de las operaciones descritas como realizadas por el servidor en lugar de o junto con el servidor.
En varias formas de realización, se ha descrito un servidor. El servidor 110 puede incluir una memoria y un procesador que ejecuta instrucciones y manipula datos para realizar operaciones de servidor. El servidor puede estar basado en la nube y/o admitir procesamiento y almacenamiento basados en la nube, en algunas formas de realización. Como se ha descrito, una red neuronal puede almacenarse en una memoria del servidor y el procesador puede realizar las funciones de la red neuronal. La memoria puede incluir un depósito (por ejemplo, una base de datos) de datos. Los datos pueden incluir datos para enseñar y/o configurar la red neuronal (p. ej., conjuntos de imágenes, comentarios sobre daños identificados correcta o incorrectamente, patrones, etc.), precios de reventa, precios para ofrecer dispositivos, reparación de pantallas y/o costos de reemplazo, posición predeterminada para la información de captura de imágenes, información de mercado, información de reutilización, información de seguros, información para verificar la identidad de los dispositivos y/o cualquier otra información apropiada.
Además, varios elementos de software pueden almacenarse en la memoria del servidor. Por ejemplo, el software puede ser capaz de comunicarse con dispositivos, realizar una o más operaciones para determinar el estado de la pantalla del dispositivo, realizar pruebas en uno o más componentes del dispositivo, etc. En varias formas de realización, una o más de las imágenes capturadas pueden almacenarse en una memoria del dispositivo o servidor y/o transmitirse (por ejemplo, desde un dispositivo de usuario al servidor y/o viceversa).
El software en el servidor y/o la aplicación de devolución puede incluir una interfaz gráfica que facilite la interacción con un usuario. Una interfaz de comunicación puede permitir que el servidor se comunique con otros repositorios y/o dispositivos a través de una red. La interfaz de comunicación puede transmitir datos hacia y/o desde el servidor y/o recibir datos de dispositivos y/o repositorios acoplados y/u otros sistemas informáticos a través de protocolos de red (p. ej., TCP/IP, Bluetooth y/o Wi-Fi) y/o o un bus (por ejemplo, serie, paralelo, USB y/o FireWire).
Una interfaz gráfica de usuario (GUI) del servidor y/o la aplicación de devolución puede visualizarse en una interfaz de presentación, tal como una pantalla, del dispositivo. La GUI puede funcionar para permitir que el usuario del dispositivo interactúe con los repositorios y/o el servidor. En general, la GUI proporciona al usuario del dispositivo una presentación eficiente y fácil de usar de los datos proporcionados por el servidor y/o la aplicación de retorno. La GUI puede incluir una pluralidad de pantallas que tienen campos interactivos, listas desplegables y botones operados por el usuario. Como ejemplo, la GUI presenta una interfaz de tipo exploración y recibe comandos del usuario. Debe entenderse que el término interfaz gráfica de usuario puede usarse en singular o en plural para describir una o más interfaces gráficas de usuario en cada una de las pantallas de una interfaz gráfica de usuario particular. Además, la GUI contempla cualquier interfaz gráfica de usuario, como un navegador web genérico, que procesa información en el servidor y/o dispositivo y presenta de manera eficiente la información al usuario. En algunas formas de realización, la GUI puede presentar una página web que incorpora contenido de la aplicación y/o el servidor de devolución. El servidor puede aceptar datos del dispositivo a través de un navegador web (por ejemplo, Microsoft Internet Explorer o Safari) y devolver las respuestas apropiadas de lenguaje de marcado de hipertexto (HTML) o lenguaje de marcado extensible (XML).
Aunque la FIG. 1 proporciona un ejemplo de servidor que se puede usar con la divulgación, el servidor se puede implementar usando computadoras que no sean servidores, así como un grupo de servidores. Por ejemplo, el servidor puede incluir una computadora personal (PC) de uso general, una Macintosh, una estación de trabajo, una computadora basada en UNIX, una computadora servidor o cualquier otro dispositivo adecuado. Según una forma de realización, el servidor puede incluir un servidor web y/o un servidor basado en la nube. El servidor puede adaptarse para ejecutar cualquier sistema operativo, incluidos UNIX, Linux, Windows o cualquier otro sistema operativo adecuado. En resumen, el servidor puede incluir software y/o hardware en cualquier combinación adecuada para proporcionar acceso a datos y/o traducir datos a un formato compatible apropiado.
Aunque las formas de realización describen un solo procesador en servidores y/o dispositivos, se pueden usar múltiples procesadores de acuerdo con las necesidades particulares, y la referencia al procesador debe incluir múltiples procesadores cuando corresponda. El procesador puede incluir un dispositivo lógico programable, un microprocesador o cualquier otro dispositivo apropiado para manipular información de manera lógica.
Aunque las formas de realización analizan el uso de redes neuronales para realizar al menos una parte del análisis de la aplicación de devolución, se pueden utilizar otros marcos de análisis implementados en dispositivos informáticos, según corresponda. Las formas de realización describen la red neuronal como incluida en el servidor (es decir, servidores físicos y/o servidores virtuales); sin embargo, la red neuronal puede estar alojada en otros dispositivos. Por ejemplo, la red neuronal puede ser capaz de ejecutarse y/o al menos ejecutarse parcialmente en dispositivos de usuario, como un primer dispositivo y/o un segundo dispositivo, como un dispositivo móvil. La red neuronal puede estar basada en la nube y ser accedida por el servidor y/o dispositivos de usuario (por ejemplo, primer y/o segundo dispositivo), en algunas formas de realización.
Aunque las formas de realización describen una sola memoria del servidor y/o dispositivos, se pueden usar múltiples memorias según corresponda. Por ejemplo, una memoria puede incluir bases de datos SQL, bases de datos relacionales, bases de datos orientadas a objetos, bases de datos distribuidas, bases de datos XML, memoria basada en la nube, memoria de dispositivo y/o repositorios de servidores web. Además, la memoria puede incluir una o más formas de memoria, como memoria volátil (p. ej., RAM) o memoria no volátil, como memoria de solo lectura (ROM), memoria óptica (p. ej., CD, DVD o LD), memoria magnética (ej., unidades de disco duro, unidades de disquete), memoria flash NAND, memoria flash NOR, memoria de solo lectura programable y borrable eléctricamente (EEPROM), memoria de acceso aleatorio ferroeléctrica (FeRAM), memoria de acceso aleatorio magnetorresistiva (MRAM), memoria de acceso aleatorio no volátil (NVRAM), memoria de acceso aleatorio estática no volátil (nvSRAM) y/o memoria de cambio de fase (PRAM).
Debe entenderse que las formas de realización no se limitan a sistemas o procesos particulares descritos que, por supuesto, pueden variar. También debe entenderse que la terminología utilizada en este documento tiene el propósito de describir formas de realización particulares solamente, y no pretende ser limitativa. Como se usa en esta especificación, las formas singulares “un”, “una”, “el” y “ella” incluyen referentes plurales a menos que el contenido indique claramente lo contrario. Así, por ejemplo, la referencia a “una imagen” incluye una combinación de dos o más imágenes y la referencia a “un gráfico” incluye distintos tipos y/o combinaciones de gráficos.

Claims (15)

REIVINDICACIONES
1. Un método para identificar una condición de una o más pantallas de un dispositivo electrónico, comprendiendo el método:
recibir, a través de una solicitud de devolución, una solicitud de evaluación de una condición de al menos una parte de una pantalla (115, 510, 610, 710) de un primer dispositivo (110);
provocar, mediante la aplicación de devolución, la visualización de un primer gráfico (500, 530, 600) en la pantalla del primer dispositivo cuando se enciende la pantalla, en donde el primer gráfico comprende un primer código de identificación;
capturar al menos una parte de una primera imagen del primer gráfico a través de una cámara ubicada en el primer dispositivo, en el que la primera imagen comprende un reflejo del primer gráfico en una superficie reflectante;
provocar, mediante la aplicación de retorno y en respuesta al análisis de al menos la parte de la primera imagen, la visualización de uno o más segundos gráficos en la pantalla del primer dispositivo cuando la pantalla está encendida;
capturar al menos una parte de una o más segundas imágenes de al menos uno de los segundos gráficos a través de la cámara ubicada en el primer dispositivo, donde cada una de las segundas imágenes comprende un reflejo de al menos uno de los segundos gráficos en la superficie reflectante; y
procesar una o más de las segundas imágenes para determinar si la pantalla del primer dispositivo presenta una grieta.
2. El método de la reivindicación 1, que comprende además verificar una identidad del primer dispositivo en base a un análisis del primer código de identificación.
3. El método de la reivindicación 1, en el que capturar al menos una parte de una o más de las segundas imágenes de al menos uno de los segundos gráficos comprende:
determinar una orientación del primer dispositivo en base a la imagen capturada del primer gráfico; y proporcionar guía para ajustar la orientación del primer dispositivo en base a la orientación determinada.
4. El método de la reivindicación 3, que comprende además capturar al menos una parte de una imagen adicional del primer gráfico a través de la cámara del primer dispositivo.
5. El método de la reivindicación 3, que comprende además:
determinar una orientación del primer dispositivo en base a la primera imagen capturada del primer gráfico; proporcionar guía para ajustar la orientación del primer dispositivo en base a la orientación determinada; y capturar al menos una parte de una o más imágenes adicionales de al menos uno de los segundos gráficos a través de la cámara del primer dispositivo, en el que cada una de las imágenes adicionales comprende un reflejo de al menos uno de los segundos gráficos en la superficie reflectante.
6. El método de la reivindicación 3, que comprende además determinar que al menos una de las primeras imágenes capturadas o una o más de las segundas imágenes capturadas no es una imagen procesable; y permitir que el primer dispositivo sea reorientado para capturar una imagen procesable:
determinar la orientación del primer dispositivo en base a la primera imagen capturada o una o más de las segundas imágenes capturadas; y proporcionar guía para ajustar la orientación del primer dispositivo en base a la orientación determinada.
7. El método de la reivindicación 1, que comprende además etiquetar una o más de las segundas imágenes capturadas con al menos una parte de la primera imagen capturada.
8. El método de la reivindicación 1, en el que identificar una pantalla o parte de la misma del primer dispositivo en la segunda imagen comprende utilizar al menos uno de detección de esquinas o detección de bordes para identificar una pantalla del primer dispositivo en la segunda imagen.
9. El método de la reivindicación 1, en el que el procesamiento de una de las segundas imágenes comprende:
identificar la pantalla o parte de la misma del primer dispositivo en la segunda imagen; generar una tercera imagen en la que las partes de la segunda imagen que no se identifican como una pantalla o una parte de la misma en la segunda imagen no pueden incluirse en la tercera imagen;
dividir la tercera imagen en partes;
determinar si una o más de las partes de la tercera imagen incluye daño; e
identificar partes adyacentes a una o más de las partes que incluyen daños,
en donde la determinación del estado de la pantalla del primer dispositivo se basa en si se determina que una o más de las partes de una o más de las terceras imágenes incluyen daños y si una o más de las partes adyacentes incluye daño.
10. El método de la reivindicación 9, en el que generar la tercera imagen comprende alterar la segunda imagen de manera que se eliminen partes de la segunda imagen que no están identificadas como la pantalla o parte de la misma.
11. El método de la reivindicación 9, en el que identificar la pantalla o parte de la misma comprende identificar el área activa de la pantalla del primer dispositivo.
12. El método de la reivindicación 1, en el que la aplicación de devolución se ejecuta en el primer dispositivo.
13. El método de la reivindicación 1, en el que la solicitud de devolución se ejecuta de forma remota desde el primer dispositivo y se accede a ella utilizando un navegador web que se ejecuta en el primer dispositivo.
14. Un dispositivo que comprende medios para llevar a cabo el método de cualquiera de las reivindicaciones 1-13.
15. Un producto de programa informático que comprende instrucciones que, cuando el programa es ejecutado por el dispositivo según la reivindicación 14, hacen que el dispositivo realice el método de cualquiera de las reivindicaciones 1­ 13.
ES20176606T 2016-03-07 2017-03-07 Detección de daños en la pantalla para dispositivos Active ES2912577T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US201662304729P 2016-03-07 2016-03-07

Publications (1)

Publication Number Publication Date
ES2912577T3 true ES2912577T3 (es) 2022-05-26

Family

ID=59723635

Family Applications (3)

Application Number Title Priority Date Filing Date
ES19173269T Active ES2820230T3 (es) 2016-03-07 2017-03-07 Detección de daño de pantalla para dispositivos
ES20176606T Active ES2912577T3 (es) 2016-03-07 2017-03-07 Detección de daños en la pantalla para dispositivos
ES17763941T Active ES2819699T3 (es) 2016-03-07 2017-03-07 Detección de daño de pantalla para dispositivos

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES19173269T Active ES2820230T3 (es) 2016-03-07 2017-03-07 Detección de daño de pantalla para dispositivos

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES17763941T Active ES2819699T3 (es) 2016-03-07 2017-03-07 Detección de daño de pantalla para dispositivos

Country Status (6)

Country Link
US (2) US10332249B2 (es)
EP (4) EP4036852A1 (es)
JP (4) JP6754843B2 (es)
CA (1) CA3016367C (es)
ES (3) ES2820230T3 (es)
WO (1) WO2017156046A1 (es)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10445708B2 (en) 2014-10-03 2019-10-15 Ecoatm, Llc System for electrically testing mobile devices at a consumer-operated kiosk, and associated devices and methods
EP3213280B1 (en) 2014-10-31 2021-08-18 ecoATM, LLC Systems and methods for recycling consumer electronic devices
US20170270613A1 (en) * 2016-03-15 2017-09-21 Technology Enhanced Claims Handling, Inc. Agent dispatch system
EP3449374B1 (en) 2016-04-28 2024-05-29 Yougetitback Limited Systems and methods for detection of mobile device fault conditions
US11210777B2 (en) * 2016-04-28 2021-12-28 Blancco Technology Group IP Oy System and method for detection of mobile device fault conditions
US10269110B2 (en) 2016-06-28 2019-04-23 Ecoatm, Llc Methods and systems for detecting cracks in illuminated electronic device screens
US11032471B2 (en) 2016-06-30 2021-06-08 Nokia Technologies Oy Method and apparatus for providing a visual indication of a point of interest outside of a user's view
US20210264528A1 (en) 2017-02-24 2021-08-26 State Farm Mutual Automobile Insurance Company Technology for analyzing image data to automatically manage customer policies
US10559283B2 (en) * 2017-03-20 2020-02-11 Paypal, Inc. Automated user device damage remediation
US10540489B2 (en) * 2017-07-19 2020-01-21 Sony Corporation Authentication using multiple images of user from different angles
CN107422915B (zh) * 2017-07-26 2019-05-28 Oppo广东移动通信有限公司 触摸屏的响应控制方法、装置、存储介质及终端
US20190236416A1 (en) * 2018-01-31 2019-08-01 Microsoft Technology Licensing, Llc Artificial intelligence system utilizing microphone array and fisheye camera
US12013346B2 (en) 2018-02-19 2024-06-18 Blancco Technology Group IP Oy System and method for detection of mobile device fault conditions
US11734477B2 (en) * 2018-03-08 2023-08-22 Concurrent Technologies Corporation Location-based VR topological extrusion apparatus
CN108921811B (zh) * 2018-04-03 2020-06-30 阿里巴巴集团控股有限公司 检测物品损伤的方法和装置、物品损伤检测器
US11790453B2 (en) * 2018-05-04 2023-10-17 Assurant, Inc. Systems and methods for generating contextually relevant device protections
US20190340693A1 (en) * 2018-05-04 2019-11-07 Hyla, Inc. Systems and methods for generating contextually relevant device protections
CN108805270B (zh) * 2018-05-08 2021-02-12 华中科技大学 一种基于存储器的卷积神经网络系统
US11050278B1 (en) 2018-06-08 2021-06-29 Confinement Telephony Technology, Llc Methods and systems for charging and monitoring electronic devices in confinement institutions
US11645029B2 (en) 2018-07-12 2023-05-09 Manufacturing Resources International, Inc. Systems and methods for remotely monitoring electronic displays
US10908863B2 (en) 2018-07-12 2021-02-02 Manufacturing Resources International, Inc. System and method for providing access to co-located operations data for an electronic display
JP6578607B1 (ja) * 2018-07-18 2019-09-25 ゼアーウィンスリーサービス株式会社 タイヤパンク修理判定システム、タイヤパンクの保証申請の可否を判断する装置及び、タイヤパンクの保証申請の可否を判断する装置の作動方法
EP3867809A4 (en) * 2018-10-15 2022-07-06 Gauss Surgical, Inc. IMAGE PROCESSING METHODS AND SYSTEMS
CN113167742B (zh) * 2018-11-29 2024-02-27 富士胶片株式会社 混凝土构造物的点检辅助装置、点检辅助方法及记录介质
JP7352615B2 (ja) 2018-12-19 2023-09-28 エコエーティーエム, エルエルシー 携帯電話および他の電子デバイスを販売および/または購入するためのシステムおよび方法
US11741763B2 (en) * 2018-12-26 2023-08-29 Allstate Insurance Company Systems and methods for system generated damage analysis
WO2020167846A1 (en) 2019-02-12 2020-08-20 Ecoatm, Llc Kiosk for evaluating and purchasing used electronic devices
EP3924917A1 (en) 2019-02-12 2021-12-22 ecoATM, LLC Connector carrier for electronic device kiosk
KR20210127199A (ko) 2019-02-18 2021-10-21 에코에이티엠, 엘엘씨 전자 디바이스의 신경망 기반의 물리적 상태 평가, 및 관련된 시스템 및 방법
US11402940B2 (en) 2019-02-25 2022-08-02 Manufacturing Resources International, Inc. Monitoring the status of a touchscreen
US11137847B2 (en) 2019-02-25 2021-10-05 Manufacturing Resources International, Inc. Monitoring the status of a touchscreen
US11875796B2 (en) 2019-04-30 2024-01-16 Microsoft Technology Licensing, Llc Audio-visual diarization to identify meeting attendees
US10812921B1 (en) 2019-04-30 2020-10-20 Microsoft Technology Licensing, Llc Audio stream processing for distributed device meeting
US11216687B2 (en) * 2019-05-15 2022-01-04 Getac Technology Corporation Image detection scanning method for object surface defects and image detection scanning system thereof
WO2020234634A1 (en) * 2019-05-21 2020-11-26 Service Lee Technologies Pvt., Ltd. Cracked screen detection system and method
DE102019209019A1 (de) * 2019-06-21 2020-12-24 Robert Bosch Gmbh Vorrichtung und Verfahren zur Bildverarbeitung
US10607331B1 (en) * 2019-06-28 2020-03-31 Corning Incorporated Image segmentation into overlapping tiles
CN110376217B (zh) * 2019-07-24 2021-12-21 千享科技(北京)有限公司 一种电子设备显示屏损伤的主动检测方法及系统
US20210056559A1 (en) * 2019-08-24 2021-02-25 Eli Altaras Digital device warranty method and devices
JP2022548595A (ja) 2019-09-16 2022-11-21 アシュラント インコーポレイテッド モバイルデバイスの完全性状態を判断するために機械学習を利用してモバイルデバイスの画像を処理するためのシステム、方法、装置、およびコンピュータプログラム製品
WO2021081256A1 (en) * 2019-10-22 2021-04-29 Blancco Technology Group IP Oy System and method for mobile device display and housing diagnostics
CN110827249A (zh) * 2019-10-28 2020-02-21 上海悦易网络信息技术有限公司 电子设备背板外观瑕疵检测方法及设备
CN113127272B (zh) * 2019-12-31 2024-05-14 华为技术有限公司 屏幕检测方法和屏幕检测的电子设备
CN111175318A (zh) * 2020-01-21 2020-05-19 上海悦易网络信息技术有限公司 屏幕划痕碎裂检测方法及设备
WO2021149068A1 (en) * 2020-01-23 2021-07-29 Service Lee Technologies Pvt. Ltd. Process and system for detecting cracks on back panel of an electronic device
JP2021139718A (ja) * 2020-03-04 2021-09-16 日本発條株式会社 検査システムの点検方法、検査システム、およびコンピュータプログラム。
CN111476759B (zh) * 2020-03-13 2022-03-25 深圳市鑫信腾机器人科技有限公司 一种屏幕表面检测方法、装置、终端及存储介质
JP6811500B1 (ja) * 2020-05-07 2021-01-13 株式会社トライグル 情報処理装置およびプログラム
JP2021197257A (ja) * 2020-06-12 2021-12-27 株式会社日立ハイテク 荷電粒子ビーム装置
JP7511882B2 (ja) 2020-08-04 2024-07-08 国立大学法人東京工業大学 電子機器画面部のグレード判定方法及びシステム
US11922467B2 (en) 2020-08-17 2024-03-05 ecoATM, Inc. Evaluating an electronic device using optical character recognition
JP6932364B1 (ja) * 2020-08-17 2021-09-08 Assest株式会社 買取価格推定プログラム
WO2022040668A1 (en) 2020-08-17 2022-02-24 Ecoatm, Llc Evaluating an electronic device using optical character recognition
CN112116574A (zh) * 2020-09-16 2020-12-22 北京小米移动软件有限公司 屏幕修复方法、装置以及存储介质
US11836912B2 (en) * 2020-09-22 2023-12-05 Future Dial, Inc. Grading cosmetic appearance of a test object based on multi-region determination of cosmetic defects
US11900581B2 (en) 2020-09-22 2024-02-13 Future Dial, Inc. Cosmetic inspection system
CN112268912A (zh) * 2020-10-09 2021-01-26 支付宝(杭州)信息技术有限公司 基于镜面拍摄的屏幕损伤验证方法和装置
US11176516B1 (en) * 2020-12-21 2021-11-16 Coupang Corp. Systems and methods for automated information collection and processing
CN112597931B (zh) * 2020-12-28 2024-06-18 京东科技控股股份有限公司 屏幕状态检测方法、装置、电子设备、服务器和存储介质
US11941792B2 (en) * 2021-04-09 2024-03-26 Dell Products L.P. Machine learning-based analysis of computing device images included in requests to service computing devices
CN113360329A (zh) * 2021-06-15 2021-09-07 读书郎教育科技有限公司 一种检测Android终端花屏和闪屏的装置及方法
US20230011330A1 (en) * 2021-07-09 2023-01-12 At&T Intellectual Property I, L.P. Device condition determination
CN113537218B (zh) * 2021-07-27 2024-02-06 京东科技信息技术有限公司 图像识别方法及其装置
US11921010B2 (en) 2021-07-28 2024-03-05 Manufacturing Resources International, Inc. Display assemblies with differential pressure sensors
US11965804B2 (en) 2021-07-28 2024-04-23 Manufacturing Resources International, Inc. Display assemblies with differential pressure sensors
CN113783996B (zh) * 2021-08-17 2023-01-17 咪咕文化科技有限公司 屏幕缺陷优化方法、装置、设备及计算机存储介质
US20230188998A1 (en) 2021-12-09 2023-06-15 Assurant, Inc. Remote verification of the condition of a mobile device
US11972672B1 (en) 2022-10-26 2024-04-30 Manufacturing Resources International, Inc. Display assemblies providing open and unlatched alerts, systems and methods for the same

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01112382A (ja) * 1987-10-26 1989-05-01 Komatsu Ltd ひびわれ画像データ処理方法
JP3297950B2 (ja) * 1993-07-13 2002-07-02 シャープ株式会社 平面型表示パネル検査装置
JP3343444B2 (ja) * 1994-07-14 2002-11-11 株式会社アドバンテスト Lcdパネル画質検査装置及びlcd画像プリサンプリング方法
JPWO2001041068A1 (ja) * 1999-11-29 2004-01-08 オリンパス光学工業株式会社 欠陥検査システム
JP4479877B2 (ja) * 2003-02-20 2010-06-09 谷電機工業株式会社 画像認識による不良検査方法
KR20060044032A (ko) * 2004-11-11 2006-05-16 삼성전자주식회사 표시패널용 검사 장치 및 이의 검사 방법
JP2009032112A (ja) * 2007-07-27 2009-02-12 Kitami Information Technology Co Ltd 携帯端末を用いた付帯情報管理方法及び管理システム
US20100053604A1 (en) * 2008-08-31 2010-03-04 Paul Rice Broken screen detector
JP2010066186A (ja) * 2008-09-12 2010-03-25 Olympus Corp 検査装置および検査方法
US8200533B2 (en) * 2008-10-02 2012-06-12 ecoATM, Inc. Apparatus and method for recycling mobile phones
US20150066677A1 (en) * 2008-10-02 2015-03-05 ecoATM, Inc. Pre-Acquisition Auction For Recycled Electronic Devices
US20130144797A1 (en) * 2008-10-02 2013-06-06 ecoATM, Inc. Method And Apparatus For Recycling Electronic Devices
KR20130072213A (ko) * 2010-05-19 2013-07-01 가부시키가이샤 니콘 형상 측정 장치 및 형상 측정 방법
JP5496016B2 (ja) * 2010-08-19 2014-05-21 京セラ株式会社 入力装置
JP2013114049A (ja) * 2011-11-29 2013-06-10 Sharp Corp 画像表示端末ならびに画像表示端末を制御するための方法およびプログラム
CN104067600B (zh) * 2012-02-01 2017-05-03 埃科亚特姆公司 用于回收电子设备的方法与装置
US20140253494A1 (en) * 2013-03-11 2014-09-11 Motorola Mobility Llc Method and device for detecting display damage and reconfiguring presentation data and actuation elements
US9488589B2 (en) * 2013-10-29 2016-11-08 The Boeing Company Mapping damaged regions on objects
US20150330910A1 (en) * 2014-04-25 2015-11-19 Gdt, Inc. Cosmetic Evaluation Box for Used Electronics
US20160019685A1 (en) * 2014-07-21 2016-01-21 Tu Nguyen Method for Performing a Cosmetic Evaluation of a Used Electronic Device
KR102271433B1 (ko) * 2014-08-22 2021-07-01 엘지전자 주식회사 자가진단시스템 및 디스플레이 디바이스의 자가진단 방법
US9703325B2 (en) * 2015-08-12 2017-07-11 Apple Inc. Coverglass fracture detection
US11850631B2 (en) * 2015-08-31 2023-12-26 Helmerich & Payne Technologies, Llc System and method for estimating damage to a shaker table screen using computer vision
US10001878B2 (en) * 2016-02-04 2018-06-19 Motorola Mobility Llc Method and device for detecting fascia damage and repairing the same

Also Published As

Publication number Publication date
EP3731157A1 (en) 2020-10-28
US10810732B2 (en) 2020-10-20
US20170256051A1 (en) 2017-09-07
EP3731157B1 (en) 2022-04-27
WO2017156046A1 (en) 2017-09-14
EP3540690A1 (en) 2019-09-18
US10332249B2 (en) 2019-06-25
CA3016367C (en) 2021-11-23
US20190266720A1 (en) 2019-08-29
ES2820230T3 (es) 2021-04-20
EP3427198A1 (en) 2019-01-16
JP2019513262A (ja) 2019-05-23
EP3427198A4 (en) 2019-08-28
JP2020126661A (ja) 2020-08-20
EP4036852A1 (en) 2022-08-03
JP2021185510A (ja) 2021-12-09
JP7417793B2 (ja) 2024-01-19
JP6934082B2 (ja) 2021-09-08
JP2023156332A (ja) 2023-10-24
JP6754843B2 (ja) 2020-09-16
EP3540690B1 (en) 2020-07-08
ES2819699T3 (es) 2021-04-19
CA3016367A1 (en) 2017-09-14
EP3427198B1 (en) 2020-07-08

Similar Documents

Publication Publication Date Title
ES2912577T3 (es) Detección de daños en la pantalla para dispositivos
US11874910B2 (en) Facial recognition authentication system including path parameters
US20210125513A1 (en) System and method for validating honest test taking
US20210110366A1 (en) Kiosks for remote collection of electronic devices for value, and associated mobile application for enhanced diagnostics and services
KR102346381B1 (ko) 경로 파라미터들을 포함하는 안면 인식 인증 시스템
US20170308741A1 (en) Computerized system and method for continuously authenticating a users identity during an online session and providing online functionality based therefrom
CN104537292B (zh) 用于生物特征验证的电子欺骗检测的方法和系统
US20160275518A1 (en) Device recycling systems with facial recognition
US9232143B2 (en) Method and system for assistive photography
JP2020514840A (ja) モバイル・デバイス障害状態の検出のためのシステムおよび方法
US20150324870A1 (en) Method of Remotely Determining the Condition of a Used Electronic Device
US20160379223A1 (en) Genuine product certification means and system
US9659206B2 (en) Station for acquiring biometric and biographic data
US20150324926A1 (en) System and Method of Analyzing Insurance Claims for Electronic Devices
US20180097990A1 (en) System and method for stencil based assistive photography
Cutter Increasing printed document accessibility with guided image acquisition