ES2819699T3 - Detección de daño de pantalla para dispositivos - Google Patents

Detección de daño de pantalla para dispositivos Download PDF

Info

Publication number
ES2819699T3
ES2819699T3 ES17763941T ES17763941T ES2819699T3 ES 2819699 T3 ES2819699 T3 ES 2819699T3 ES 17763941 T ES17763941 T ES 17763941T ES 17763941 T ES17763941 T ES 17763941T ES 2819699 T3 ES2819699 T3 ES 2819699T3
Authority
ES
Spain
Prior art keywords
image
screen
images
implementations
damage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17763941T
Other languages
English (en)
Inventor
Biju Nair
Bikramjit Singh
Satish G Nair
Ram Mohan Reddy
Rajiv Kumar Dwivedi
Christopher Heistad
Rebekah Jane Griffiths
Jonathan Brian Chinn
Karl Felix Medina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyla Mobile Inc
Original Assignee
Hyla Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyla Inc filed Critical Hyla Inc
Application granted granted Critical
Publication of ES2819699T3 publication Critical patent/ES2819699T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0278Product appraisal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30121CRT, LCD or plasma display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

Un procedimiento para identificar una condición de una o más pantallas de un dispositivo electrónico, comprendiendo el procedimiento: recibir una solicitud para evaluación de una condición de una pantalla de un primer dispositivo o porción del mismo mediante una aplicación de retorno en el primer dispositivo; permitir la representación de un primer gráfico en la pantalla del primer dispositivo, en el que el primer gráfico comprende un primer código de identificación; capturar al menos una porción de una primera imagen del primer gráfico mediante una cámara del primer dispositivo, en el que la primera imagen comprende un reflejo del primer gráfico en una superficie reflectante; permitir la presentación de uno o más segundos gráficos en la pantalla del primer dispositivo; capturar al menos una porción de una o más segundas imágenes de al menos uno de los segundos gráficos mediante una cámara del primer dispositivo, en el que cada una de las segundas imágenes comprende un reflejo de al menos uno de los segundos gráficos en la superficie reflectante; procesar una o más de las segundas imágenes para determinar una condición de la pantalla del primer dispositivo, en el que el procesamiento de una de las segundas imágenes comprende: dividir la segunda imagen en partes; determinar si una o más de las partes de la segunda imagen incluyen daño; identificar partes adyacentes a una o más de las partes que incluyen daño; y determinar una condición de la pantalla del primer dispositivo basándose en si una o más de las partes de una o más de las segundas imágenes se determina que incluyen daño y si una o más de las partes adyacentes a una de las partes determinadas que incluye daño también incluyen daño.

Description

DESCRIPCIÓN
Detección de daño de pantalla para dispositivos
Campo técnico
La presente invención se refiere a la determinación una condición de una o más pantallas de dispositivo.
Antecedentes
Los dispositivos, tales como teléfonos inteligentes, relojes y tabletas, a menudo se venden de vuelta a fabricantes o a terceros cuando los clientes mejoran sus dispositivos. Estos dispositivos usados pueden tener un valor en el mercado de reventa basándose en la condición del dispositivo. Por ejemplo, un usuario puede ofrecer su teléfono usado a un revendedor y el revendedor puede evaluar la condición del teléfono y ofrecer un precio basándose en la evaluación. Sin embargo, la evaluación de la condición del dispositivo a menudo se realiza por un ser humano y por lo tanto, es lenta y subjetiva. Además, el usuario debe esperar (por ejemplo, en un quiosco, tienda, etc.) la evaluación para recibir el precio de oferta, que puede reducir el incentivo para que los usuarios revendan sus dispositivos usados y/o reduzcan la satisfacción de usuario con el procedimiento.
Sumario
En diversas implementaciones, se determina una condición de una o más pantallas en un dispositivo (por ejemplo, si existe daño para la pantalla). Un usuario puede solicitar una evaluación de una condición de una pantalla y/o un dispositivo mediante una aplicación de retorno en el dispositivo. La aplicación de retorno puede determinar la condición de un dispositivo (por ejemplo, para determinación de valor, reventa, reclamaciones de seguros, reclamaciones de garantía). La aplicación de retorno puede presentar visualmente un primer gráfico en la pantalla del dispositivo y solicitar que el usuario coloque el dispositivo delante de una superficie reflectante, tal como un espejo (por ejemplo, para permitir que se capture una imagen del reflejo del dispositivo en el espejo por el mismo dispositivo). La aplicación de retorno puede guiar al usuario para colocar el dispositivo en una posición predeterminada (por ejemplo, cerca del espejo) para aumentar la probabilidad de que una imagen que se captura pueda usarse para evaluar de manera precisa la condición de la pantalla. Puede obtenerse una imagen de la pantalla del dispositivo (por ejemplo, puede tomarse automáticamente una imagen y/o tomarse por el usuario). Por ejemplo, puede capturarse una instantánea del reflejo de la pantalla en el espejo. La imagen de la pantalla puede procesarse y/o analizarse y puede realizarse una determinación de si la pantalla está dañada basándose en la imagen analizada. Pueden generarse, transmitirse y/o presentarse visualmente una o más notificaciones y/o indicaciones basándose en el análisis del daño de la pantalla.
En algunas implementaciones, puede utilizarse un segundo dispositivo para facilitar la identificación de una condición de una pantalla de un dispositivo. Por ejemplo, un primer dispositivo puede tener una cámara rota y/o dañada y/o la pantalla del primer dispositivo puede estar demasiado dañada para permitir la interacción con la aplicación de retorno en el primer dispositivo (por ejemplo, las grietas de pantalla pueden lesionar los dedos del usuario). Por lo tanto, puede utilizarse la aplicación de retorno en un segundo dispositivo para identificar una condición de una pantalla de un primer dispositivo.
En diversas implementaciones, (por ejemplo, documento US 2016/019685 A1) puede identificarse una condición de una o más pantallas de un dispositivo (por ejemplo, electrónica, tal como un dispositivo móvil, portátil, etc.). Una solicitud de evaluación de una condición de una pantalla de un primer dispositivo o porción del mismo puede recibirse mediante una aplicación de retorno en el primer dispositivo. Puede permitirse la presentación de un primer gráfico, que incluye un primer código de identificación, en la pantalla (por ejemplo, componente de visualizador) del primer dispositivo. La aplicación de retorno puede hacer que el primer gráfico se presente visualmente en la pantalla del primer dispositivo. Al menos una porción de una primera imagen del primer gráfico puede capturarse por una cámara del primer dispositivo. La primera imagen puede incluir un reflejo del primer gráfico en una superficie reflectante, tal como un espejo. Puede permitirse la presentación de uno o más segundos gráficos (por ejemplo, mediante la aplicación de retorno) en la pantalla del primer dispositivo, y puede capturarse al menos una porción de una o más segundas imágenes de al menos uno de los segundos gráficos (por ejemplo, mediante una cámara del primer dispositivo). Una o más de las segundas imágenes puede incluir un reflejo de al menos uno de los segundos gráficos en la superficie reflectante, tal como un espejo. La aplicación de retorno puede controlar y/o permitir que el usuario controle el componente de cámara del primer dispositivo. La aplicación de retorno puede tener acceso a las imágenes capturadas por la cámara del primer dispositivo. Una o más de las segundas imágenes pueden procesarse para determinar una condición de la pantalla del primer dispositivo. El procesamiento de la segunda imagen o imágenes puede incluir dividir la segunda imagen en partes, determinar si una o más de las partes de la segunda imagen incluye daño, e identificar partes adyacentes a una o más de las partes que incluyen daño. Puede determinarse una condición de la pantalla del primer dispositivo basándose en si se determina que una o más de las partes de una o más de las segundas imágenes incluyen daño y si se determina que una o más de las partes adyacentes a una de las partes que incluye daño también incluyen daño.
Las implementaciones pueden incluir una o más de las siguientes características. Puede verificarse una identidad de un primer dispositivo basándose en un análisis del primer código de identificación. La segunda imagen capturada que incluye el segundo gráfico puede embeberse o etiquetarse de otra manera con el primer código de identificación o una porción del mismo, del primer gráfico. La captura de al menos una porción de la segunda imagen o imágenes del segundo gráfico o gráficos puede incluir la determinación de una orientación del dispositivo basándose en la imagen capturada del primer gráfico, y proporcionar guiado para ajustar una orientación del dispositivo basándose en la orientación determinada. Al menos una porción de una imagen adicional del primer gráfico puede capturarse mediante la cámara del primer dispositivo. En algunas implementaciones, puede determinarse una orientación del dispositivo basándose en la imagen capturada del primer gráfico, y puede proporcionarse el guiado para ajustar una orientación del dispositivo basándose en la orientación determinada. Al menos una porción de imagen o imágenes adicionales del segundo gráfico o gráficos puede capturarse mediante la cámara del primer dispositivo, en el que cada una de las imágenes adicionales comprende un reflejo de al menos uno de los segundos gráficos en la superficie reflectante. Si se determina que la primera imagen o imágenes capturadas y/o la segunda imagen o imágenes capturadas no es una imagen procesable, el primer dispositivo puede estar permitido a reorientarse para capturar una imagen procesable. Para capturar la imagen procesable, en algunas implementaciones, puede determinarse una orientación del dispositivo basándose en la primera imagen capturada o una o más de las segundas imágenes capturadas, y puede proporcionarse guiado para ajustar una orientación del dispositivo basándose en la orientación determinada. La segunda imagen o imágenes capturadas pueden etiquetarse con al menos una porción de la primera imagen capturada. En algunas implementaciones, puede restringirse uno o más procedimientos del primer dispositivo (por ejemplo, ventanas emergentes, alertas, anuncios, etc.), por ejemplo, mientras se está capturando la imagen y/o la aplicación de retorno está en operación. La identificación de una pantalla o una porción de la misma del primer dispositivo en la segunda imagen puede incluir la utilización de detección de esquina y/o detección de borde para identificar una pantalla del primer dispositivo en la segunda imagen. El procesamiento de una de las segundas imágenes puede incluir la identificación de la pantalla o porción de la misma del primer dispositivo en la segunda imagen y generación de una tercera imagen en la que porciones de la segunda imagen que no se identifican como una pantalla o porción de la misma en la segunda imagen están restringidas de la inclusión en la tercera imagen. La tercera imagen puede dividirse en partes (por ejemplo, en lugar de y/o además de la segunda imagen) y puede realizarse una determinación de si una o más de las partes de la tercera imagen incluye daño. Pueden identificarse partes adyacentes a una o más de las partes que incluyen o no incluyen daño. La determinación de una condición de la pantalla del primer dispositivo puede estar basada en si una o más de las partes de una o más de las terceras imágenes se determina que incluye daño y si una o más de las partes adyacentes a una de las partes determinadas que incluyen daño incluye daño. La generación de una tercera imagen puede incluir modificar la segunda imagen de manera que se eliminan porciones de la segunda imagen que no están identificadas como la pantalla o porción de la misma. La identificación de una pantalla o porción de la misma puede incluir la identificación del área activa de la pantalla del primer dispositivo.
En diversas implementaciones, puede identificarse una condición de la pantalla o pantallas de un dispositivo (por ejemplo, el dispositivo electrónico tal como un dispositivo móvil). Por ejemplo, puede identificarse una condición de un primer dispositivo usando un segundo dispositivo. Al menos uno del primer dispositivo o segundo dispositivo puede incluir una cámara (por ejemplo, componente de captura de imagen externo). El primer y el segundo dispositivo pueden ser o no el mismo dispositivo. Una solicitud de evaluación de una condición de una pantalla de un primer dispositivo o porción del mismo puede recibirse mediante una aplicación de retorno en un segundo dispositivo. El primer dispositivo puede incluir la aplicación de retorno. La presentación de un primer gráfico, que incluye un primer código de identificación, puede estar permitido en la pantalla del primer dispositivo mediante la aplicación de retorno en el primer dispositivo. Al menos una porción del primer gráfico presentado en el primer dispositivo puede capturarse mediante una cámara del segundo dispositivo. La presentación de uno o más segundos gráficos en la pantalla del primer dispositivo puede estar permitida, y al menos una porción del segundo gráfico o gráficos presentados en el primer dispositivo puede capturarse mediante una cámara del segundo dispositivo. Una o más de las segundas imágenes pueden procesarse (por ejemplo, pre-procesarse y/o procesarse) para determinar una condición de la pantalla del primer dispositivo. El procesamiento de una segunda imagen puede incluir dividir la segunda imagen en partes y determinar si una o más de las partes de la segunda imagen incluyen daño. En algunas implementaciones, las redes neurales pueden realizar operaciones de la aplicación de retorno, tales como procesamiento de imágenes. Pueden identificarse partes adyacentes a una o más de las partes que incluyen daño. Las partes adyacentes pueden tener o no daño. Una condición de la pantalla del primer dispositivo puede determinarse basándose en si se determina que una o más de las partes de la segunda incluyen daño y si una o más de las partes adyacentes incluye daño.
En diversas implementaciones, si se ha realizado una determinación de que el primer dispositivo de condición está dañado, puede determinarse información de daño. Pueden generarse indicaciones para identificar que una o más de las partes de la segunda imagen se determina que incluyen daño basándose en la información de daño. Puede probarse la pantalla táctil del primer dispositivo (por ejemplo, de acuerdo con pruebas de pantalla táctil conocidas) si se ha realizado una determinación de que la condición del primer dispositivo está dañada. El brillo de la pantalla del primer dispositivo puede calibrarse basándose en la primera imagen capturada (por ejemplo, para facilitar procesamiento y/o precisión de imagen). Permitir la presentación de los segundos gráficos en la pantalla del primer dispositivo puede incluir permitir la presentación de un conjunto de imágenes en ráfagas en el primer dispositivo. El conjunto de imágenes en ráfagas incluye al menos uno de los segundos gráficos en múltiples niveles de luminosidad. La captura de al menos una porción de uno o más de los segundos gráficos presentados en el primer dispositivo puede incluir la captura del conjunto de imágenes en ráfagas presentadas en el primer dispositivo, y la selección de una de las imágenes en ráfagas capturadas determinando cuál del conjunto capturado de imágenes en ráfagas es más similar en color a un color de referencia. La imagen en ráfagas capturada seleccionada puede identificarse como uno de los segundos gráficos capturados (por ejemplo, para pre-procesamiento y/o procesamiento). La captura de al menos una porción de una o más segundas imágenes de al menos uno de los segundos gráficos puede incluir la determinación de una orientación del dispositivo basándose en la imagen capturada del primer gráfico, y proporcionar guiado para ajustar una orientación del dispositivo basándose en la orientación determinada. Al menos una porción de una imagen adicional del primer gráfico puede capturarse mediante la cámara del primer dispositivo. Permitir la presentación de uno o más segundos gráficos en la pantalla del primer dispositivo puede incluir permitir la presentación secuencial de más de un segundo gráfico en la pantalla del primer dispositivo. La captura de al menos una porción de uno o más de los segundos gráficos puede incluir capturar al menos una imagen de cada uno de los segundos gráficos presentados secuencialmente en la pantalla del primer dispositivo. Permitir la presentación de uno o más segundos gráficos en la pantalla del primer dispositivo puede incluir permitir presentación concurrente de más de un segundo gráfico en la pantalla del primer dispositivo.
Los detalles de una o más implementaciones se exponen en los dibujos adjuntos y la descripción a continuación. Otras características, objetos y ventajas de las implementaciones serán evidentes a partir de la descripción y los dibujos.
Breve descripción de los dibujos
Para un entendimiento más completo de esta divulgación y sus características, se hace referencia ahora a la siguiente descripción, tomada en conjunto con los dibujos adjuntos, en los que:
La Figura 1 ilustra una implementación de un sistema de ejemplo.
La Figura 2 ilustra una implementación de un procedimiento de ejemplo para determinar una condición de una pantalla de un dispositivo.
La Figura 3A ilustra una implementación de una colocación de ejemplo de un dispositivo delante de un espejo. La Figura 3B ilustra una implementación de una captura de ejemplo de una imagen que incluye una pantalla de dispositivo.
La Figura 3C ilustra una implementación de una notificación de ejemplo visualizada por la aplicación de retorno. La Figura 4 ilustra una implementación de un procedimiento de ejemplo para determinar si una pantalla de dispositivo está dañada.
La Figura 5A ilustra una implementación de una imagen de ejemplo.
La Figura 5B ilustra una implementación de una imagen de ejemplo.
La Figura 6A ilustra una implementación de una imagen de ejemplo antes del procesamiento.
La Figura 6B ilustra una implementación de una imagen de ejemplo después de procesamiento.
La Figura 7 ilustra una implementación de una porción de una división de una imagen.
La Figura 8A ilustra una implementación de una imagen capturada de ejemplo de una pantalla de dispositivo. La Figura 8B ilustra una implementación de una interfaz generada como resultado de una determinación de si está dañada la pantalla de dispositivo ilustrado en la Figura 8A.
La Figura 8C ilustra una implementación de una imagen capturada de ejemplo de una pantalla de dispositivo. La Figura 8D ilustra una implementación de una interfaz generada como resultado de una determinación de si está dañada la pantalla de dispositivo ilustrada en la Figura 8C.
La Figura 8E ilustra una implementación de una imagen capturada de ejemplo de una pantalla de dispositivo. La Figura 8F ilustra una implementación de una interfaz generada como resultado de una determinación de si está dañada la pantalla de dispositivo ilustrada en la Figura 8E.
La Figura 9A ilustra una implementación de una herramienta de aprendizaje de ejemplo.
La Figura 9B ilustra una implementación de una segunda imagen de ejemplo, a partir de la cual se obtuvo la herramienta de aprendizaje.
La Figura 9C ilustra una implementación de un procesamiento de ejemplo de la segunda imagen de ejemplo ilustrada en la Figura 9B.
La Figura 10A ilustra una implementación de una herramienta de aprendizaje de ejemplo.
La Figura 10B ilustra una implementación de una segunda imagen de ejemplo, a partir de la cual se obtuvo la herramienta de aprendizaje.
La Figura 10C ilustra una implementación de un procesamiento de ejemplo de la segunda imagen de ejemplo ilustrada en la Figura 10B.
La Figura 11A ilustra una implementación de una herramienta de aprendizaje de ejemplo.
La Figura 11B ilustra una implementación de una segunda imagen de ejemplo, a partir de la cual se obtuvo la herramienta de aprendizaje.
La Figura 11C ilustra una implementación de un procesamiento de ejemplo de la segunda imagen de ejemplo ilustrada en la Figura 9B.
La Figura 12A ilustra una implementación de un resultado de precisión de ejemplo para una red neural de ejemplo.
La Figura 12B ilustra una implementación de resultado de entropía cruzada para una red neural de ejemplo.
Los símbolos de referencia similares en los diversos dibujos indican elementos similares.
Descripción detallada
En diversas implementaciones, un dispositivo (por ejemplo, dispositivo electrónico tal como un teléfono inteligente, reloj, tableta, lector electrónico, portátil, consola de juegos portátil, etc.) puede evaluarse para una condición de una o más pantallas del dispositivo. El dispositivo puede incluir un componente que puede tomar imágenes externas tales como una cámara (por ejemplo, a diferencia del componente que puede grabar imágenes de interfaz gráfica de usuario presentadas visualmente en la pantalla tal como una captura de pantalla).
La condición de la pantalla puede impactar la estética y/o usabilidad (por ejemplo, puesto que una grieta puede requerir la reparación antes de su uso y/o puede impactar o no en el uso y/o visualización en un dispositivo), y por lo tanto puede modificar el precio de un dispositivo cuando se ofrece para venta. Las evaluaciones humanas pueden provocar variabilidad puesto que las evaluaciones pueden ser subjetivas. Las evaluaciones humanas pueden provocar un tiempo de retardo entre cuando un usuario ofrece un dispositivo para venta y cuando se ofrece un precio para el dispositivo. Estos factores pueden reducir el deseo de un usuario para revender el dispositivo, reducir la satisfacción de usuario con el procedimiento, que puede mantener buenos dispositivos fuera del mercado, aumentar los precios de reventa (por ejemplo, puesto que el suministro es más limitado), y/o reducir el reciclaje de dispositivos (por ejemplo, puesto que el dispositivo puede almacenarse o desecharse). En algunas implementaciones, una determinación automatizada de la condición de la pantalla puede reducir el fraude. Por ejemplo, puede verificarse una condición de pantalla para fines de aseguración (por ejemplo, emisión de política y/o reclamo) y/o reutilización. Determinando automáticamente la condición de pantalla según se describe, puede reducirse la incidencia de fraude, que puede reducir los costes de política (por ejemplo, puesto que puede verificarse una condición y/o puede determinarse objetivamente) y/o aumentar la satisfacción de usuario (por ejemplo, puesto que es posible que no sea necesario llevar el dispositivo delante de una tienda para verificar la condición y/o puesto que puede obtenerse una condición objetiva del dispositivo para una posible reutilización). Por lo tanto, existe una necesidad de detección automática de una condición de dispositivo o componentes del mismo, tal como existe daño de pantalla en un dispositivo.
Como se ilustra en la Figura 1, uno o más dispositivos 110 pueden estar acoplados (por ejemplo, mediante una red tal como internet u otra red de comunicación) a un servidor 120. El servidor 120 puede ser cualquier servidor apropiado. En algunas implementaciones, el servidor 120 puede incluir una red neural. La red neural puede implementarse mediante software y/o hardware (por ejemplo, algunas implementaciones de una red neural pueden estar comercialmente disponibles y/o creadas a partir de IBM®, CogniMem®, mediante la biblioteca FANN, y/o usando una red neural convolucional en la parte superior del contexto tensorflow de Google®) en el servidor. En algunas implementaciones, puede utilizarse una red neural convolucional puesto que una red neural convolucional puede ser más apta (por ejemplo, más rápida, más precisa, etc.) para el procesamiento de imágenes que otras redes neurales, en algunas implementaciones.
La red neural puede auto-ajustarse y/o ajustarse basándose en actualizaciones para que el sistema mejore la precisión de la detección de daño de pantalla, en algunas implementaciones. Por ejemplo, las herramientas de aprendizaje, tales como imágenes capturadas y/o daño marcado (por ejemplo, imágenes capturadas en las que las partes según se dañan se marcan por, por ejemplo, cambios de color y/o patrón), pueden proporcionarse a la red neural para facilitar y/o para permitir que la red neural aprenda adicionalmente para identificar una condición de un dispositivo. La red neural puede analizar herramientas de aprendizaje, imágenes capturadas asociadas, procesar las imágenes capturadas asociadas, identificar daño mediante el procesamiento, y/o identificar diferencias y/o similitudes entre las partes con los daños identificados y las herramientas de aprendizaje para desarrollar la red neural (por ejemplo, de manera que la red neural puede identificar condiciones de dispositivos o porciones de los mismos). En algunas implementaciones, la red neural puede formular su propio aprendizaje en el daño percibido a píxeles y/u otras porciones del dispositivo (por ejemplo, basándose en herramientas de aprendizaje proporcionadas a la red neural y/o procesamiento de imágenes capturadas).
Los dispositivos 110 pueden incluir una o más pantallas de dispositivo 115 (por ejemplo, monitor, pantalla de LCD, vidrio, vidrio gorilla, etc.). Los dispositivos 110 pueden incluir una cámara que puede capturar un reflejo de una imagen de la pantalla de dispositivo (por ejemplo, una cámara que mira hacia delante o cámara en el mismo lado del dispositivo que la pantalla de dispositivo). Un dispositivo 110 puede incluir una aplicación de retorno almacenada en una memoria del dispositivo y ejecutable por el procesador del dispositivo. La aplicación de retorno puede permitir que el dispositivo 110 comunique con el servidor 120. La aplicación de retorno puede recibir entrada del usuario, solicitar que el usuario proporcione entrada y/o posición del dispositivo, transmitir imágenes y/o notificaciones, generar gráficos, capturar imágenes, dirigir un componente del dispositivo tal como una cámara para capturar una imagen, restringir componentes del dispositivo (por ejemplo, flash), restringir operaciones del dispositivo (por ejemplo, ventanas emergentes, anuncios, alertas, recordatorios, etc., durante la operación de la aplicación de retorno y/o captura de imagen) y/o comunicarse con otros dispositivos, tales como el servidor 120. En algunas implementaciones, la aplicación de retorno puede permitir la venta del dispositivo mediante la aplicación, determinar una condición del dispositivo o componentes del mismo, permitir que se determine un valor de un dispositivo basándose en una condición del dispositivo, determinar una condición del dispositivo o componentes del mismo para reutilización del dispositivo, determinar una condición del dispositivo o componentes del mismo para reclamaciones de seguro (por ejemplo, si un usuario desea realizar una reclamación de una política de seguro de dispositivo, la aplicación de retorno puede determinar la condición del dispositivo o componentes del mismo), determinar una condición de un dispositivo para reclamaciones de garantía, etc.
El servidor y el dispositivo 110 pueden realizar una o más de las operaciones descritas de manera separada y/o en conjunto con otros dispositivos. En algunas implementaciones, puede no utilizarse un servidor y la aplicación de retorno puede realizar una o más de las operaciones descritas (por ejemplo, en lugar del servidor). En algunas implementaciones, un servidor puede realizar una o más operaciones de los procedimientos descritos para aumentar la velocidad de la operación. En algunas implementaciones, uno o más de los dispositivos 110 y/o el servidor pueden realizar una o más de las operaciones en conjunto entre sí. En algunas implementaciones, el servidor puede estar basado en la nube y el dispositivo o dispositivos pueden comunicare con el servidor para realizar operaciones tales como procesamiento y/o análisis de imagen (por ejemplo, identificación de condiciones).
En algunas implementaciones, cuando un usuario decide vender un dispositivo (por ejemplo, cuando mejora un dispositivo, cuando se cambian dispositivos, etc.), un usuario puede seleccionar la aplicación de retorno en el dispositivo. La aplicación de retorno puede determinar información (por ejemplo, condición de dispositivo, propiedades del dispositivo tal como modelo, precios de reventa de mercado, etc.) acerca del dispositivo y presentar visualmente un precio para el dispositivo. La condición de la pantalla puede ajustar el precio ofrecido para el dispositivo mediante la aplicación puesto que el daño de pantalla es poco placentero estéticamente para algunos usuarios, puede indicar daño a otros componentes, y/o puede ser costoso de sustituir y/o reparar. Puesto que la condición de pantalla puede determinarse automáticamente, por la aplicación y/o el servidor, puede realizarse la evaluación más rápidamente y/o puede proporcionarse más consistencia (por ejemplo, puesto que un ser humano no está determinando la condición). También, puesto que la condición de la pantalla puede determinarse automáticamente, un usuario puede informar menos intencionalmente la condición de pantalla inexacta (por ejemplo, puesto que el valor de un dispositivo con buena condición de pantalla significa un precio de mercado superior, el usuario tiene un incentivo para informar que la condición de la pantalla es buena incluso si está rajada o rota; la detección automática puede inhibir el fraude común en los sistemas de auto-información y/o de análisis basados en humanos). Además, la condición de pantalla (por ejemplo, grieta grande, grieta profunda, etc.) puede solicitar que el sistema determine si otros componentes del dispositivo pueden también estar dañados. Una vez que se determina la condición de la pantalla de dispositivo y/o el dispositivo, puede determinarse un precio para ofrecer para el dispositivo (por ejemplo, por el servidor y/o la aplicación de retorno). En algunas implementaciones, puede determinarse un coste de base para el dispositivo (por ejemplo, basándose al menos parcialmente en precio de reventa, precio de reciclado, información de mercado, suministro de dispositivos similares y/o demanda del dispositivo) y el precio de base puede ajustarse basándose en la condición del dispositivo (por ejemplo, reducirse por daño en la pantalla, reducirse por daño en otros componentes y/o aumentarse por ser nuevo en caja). El usuario puede a continuación realizar una decisión con respecto a si vender o no el dispositivo basándose en el precio recibido. La entidad que ofrece el precio puede hacer la oferta con el conocimiento de la condición de la pantalla sin retardos de tiempo significativos entre el usuario que comienza el procedimiento para reventa y la recepción de un precio. Por lo tanto, puede aumentarse la satisfacción con el procedimiento para usuarios y/o entidades que compran o validad reclamaciones o capacidad de aseguración de dispositivos usados, en algunas implementaciones.
En algunas implementaciones, además de y/o en lugar de para reventa, puede determinarse la condición del dispositivo (por ejemplo, por la aplicación de retorno y/o el servidor) para una reclamación de seguro (por ejemplo, seguro de dispositivo). Por ejemplo, un dispositivo puede estar dañado y/o sospecharse que está dañado. Puede determinarse la condición del dispositivo o los componentes del mismo y/o informarse para archivar y/o verificar una reclamación de seguro. En algunas implementaciones, la aplicación de retorno puede utilizarse para determinar una condición de un dispositivo o porción del mismo cuando se adquiere el seguro de dispositivo. Por lo tanto, en lugar de basarse en la auto-información de y/o llevar un dispositivo a una tienda física para determinar una condición de un dispositivo o componentes del mismo, la condición puede determinarse mediante la aplicación de retorno en el dispositivo.
En algunas implementaciones, la condición de un dispositivo puede determinarse (por ejemplo, por la aplicación de retorno y/o el servidor) para garantías de dispositivo. Por ejemplo, un fabricante, revendedor, reparador y/o reacondicionador puede garantizar un dispositivo. Las garantías pueden ser complejas, y un usuario puede tener dificultad entendiendo qué partes están cubiertas y/o qué tipo de daño está cubierto. La condición de un dispositivo y/o componentes del mismo y/o una determinación de si el componente dañado está bajo garantía puede determinarse usando la aplicación de retorno. En algunas implementaciones, puede enviarse una reclamación de garantía y/o verificarse usando la condición determinada mediante la aplicación de retorno.
En algunas implementaciones, la condición de un dispositivo puede determinarse para determinar si un dispositivo puede reutilizarse (por ejemplo, por otro usuario). Por ejemplo, un segundo usuario puede obtener una condición del dispositivo de un primer usuario mediante la aplicación de retorno en el dispositivo (por ejemplo, la aplicación de retorno puede enviar una notificación con la condición del dispositivo al segundo usuario). El segundo usuario puede a continuación obtener una evaluación de la condición del dispositivo con menos preocupación acerca de fraude, subjetividad o error (por ejemplo, que una evaluación humana). El dispositivo con y/o sin daño puede usarse por el segundo usuario (por ejemplo, con o sin reparar el daño identificado por el sistema). La aplicación de retorno puede usarse para identificar qué reparaciones pueden realizarse y/o si un dispositivo puede usarse sin reparaciones.
La Figura 2 ilustra una implementación de un procedimiento 200 de ejemplo para determinar una condición de una pantalla de un dispositivo. La imagen o imágenes de la pantalla de dispositivo de un dispositivo pueden recibirse mediante la aplicación de retorno en el dispositivo (operación 210). Por ejemplo, un usuario puede abrir la aplicación de retorno en un dispositivo. En algunas implementaciones, la aplicación de retorno puede iniciar comunicaciones con el servidor (por ejemplo, para obtener precios de base recientes para dispositivos, para obtener actualizaciones de software, etc.). El usuario puede solicitar una oferta de un precio del dispositivo, para determinar si un dispositivo puede reutilizarse, para archivar una reclamación de seguro, para verificar una condición de dispositivo para una reclamación de seguro y/o política, y/u otras razones apropiadas para determinar una condición de un dispositivo. La aplicación de retorno puede solicitar (por ejemplo, mediante notificaciones visuales, de audio, y/o táctiles) al usuario para obtener una imagen de la pantalla de dispositivo. Por ejemplo, la aplicación de retorno puede solicitar que el usuario sitúe el dispositivo con la pantalla de dispositivo mirando a un espejo. Puesto que la calidad de la imagen puede afectar la capacidad para determinar una condición de la pantalla de dispositivo (por ejemplo, si la pantalla de dispositivo está o no dañada), la aplicación de retorno puede solicitar que el usuario ajuste la posición del dispositivo. Por ejemplo, la aplicación de retorno puede solicitar (por ejemplo, mediante notificaciones visuales y/o auditivas) al usuario con instrucciones para ajustar la posición del dispositivo, tal como mover el dispositivo más cerca, más lejos, tocar la imagen para volver a enfocar la imagen, ajustar el ángulo en el que se mantiene el dispositivo, etc., cuando el dispositivo está en una posición predeterminada, puede capturarse una o más imágenes. La imagen puede capturarse automáticamente después de que la aplicación de retorno determina que el dispositivo está en la posición predeterminada (por ejemplo, una posición óptima para capturar una imagen). La aplicación de retorno puede detectar el dispositivo dentro de la imagen y enfocar automáticamente la cámara en el dispositivo. De manera adicional, la aplicación de retorno puede recortar también el dispositivo dentro de la imagen. La imagen capturada puede ser el reflejo del dispositivo en el espejo y puede incluir la pantalla de dispositivo. El reflejo del dispositivo en el espejo puede capturarse en lugar de usar una función de "captura de pantalla" del dispositivo para obtener una imagen del exterior de la pantalla en lugar de una imagen de la interfaz presentada en la pantalla de dispositivo.
En algunas implementaciones, puede inhibirse la carga de una imagen al servidor y/o la aplicación de retorno que no se captura mediante la aplicación de retorno (operación 220). Cuando se determina la condición de imagen de pantalla basándose en una imagen, puede existir el potencial de fraude. Por ejemplo, un usuario puede tomar una imagen de un dispositivo similar sin daño para aumentar un precio ofrecido para un dispositivo dañado. Para reducir costes asociados con la representación fraudulenta o incompleta/errónea de la pantalla o pantallas de dispositivo, pueden no aceptarse cargas o selecciones de imágenes no capturadas mediante la aplicación de retorno. Por ejemplo, la aplicación de retorno puede procesar imágenes que se capturan por la aplicación (por ejemplo, la aplicación accede a la aplicación de cámara en el dispositivo y procesa la imagen tomada por la aplicación de cámara y etiqueta la imagen capturada con información de dispositivo tal como la identificación, fecha y/o indicación de tiempo). La aplicación de retorno puede no aceptar imágenes de una biblioteca de fotografías del dispositivo o almacenamiento en la nube (por ejemplo, el usuario puede no estar permitido a tomar una imagen de la pantalla de dispositivo y seleccionar la imagen de una biblioteca de fotografías en el dispositivo).
Puede realizarse una determinación de si la pantalla de dispositivo está dañada basándose en la imagen o imágenes recibidas (operación 230). La aplicación de retorno puede transmitir la imagen o imágenes recibidas al servidor para análisis. El servidor puede procesar y/o analizar la imagen o imágenes para determinar si la pantalla de dispositivo está dañada. Por ejemplo, el servidor puede incluir una red neural que se ha entrenado para identificar pantallas dañadas y/o probabilidades de que las pantallas o porciones de las mismas están dañadas. En algunas implementaciones, la red neural puede entrenarse para identificar pantallas dañadas procesando un conjunto de imágenes que incluyen pantallas con grietas, roturas y/u otro daño y/o imágenes sin daño conocidas. La red neural puede aprender para identificar patrones asociados con daño de pantalla del conjunto de imágenes. El servidor puede determinar si la pantalla de dispositivo está dañada basándose en el análisis de la imagen o imágenes recibidas por la red neural, que se ha entrenado para reconocer daño de pantalla. La red neural (por ejemplo, que reside en el servidor) puede tener, por ejemplo, una primera capa o una exterior que puede entrenarse para identificar imágenes de pantalla típicas que no están asociadas con daño, tal como reflejo o reflejos, logo o logos, sombra o sombras y/u otro artefacto o artefactos que pueden hallarse en una imagen de un dispositivo (por ejemplo, pre-procesamiento). El entrenamiento de la red neural de capa exterior para identificar imágenes de pantalla típicas que no están asociadas con daño puede reducir la ocurrencia de evaluaciones incorrectas de cualquier daño (por ejemplo, roturas, esquirlas, arañazos) que está presente cuando realmente no están en el dispositivo y/o aumentar las evaluaciones correctas de daño. Además, el entrenamiento de la capa exterior de la red neural para identificar imágenes de pantalla típicas que no están asociadas con daño puede permitir volver a capturar la imagen de la pantalla (por ejemplo, para obtener procesamiento más preciso de la imagen para daño).
El procedimiento 200 puede implementarse por diversos sistemas, tales como el sistema 100. Además, diversas operaciones pueden añadirse, borrarse y/o modificarse. Por ejemplo, la aplicación de retorno puede realizar una o más de las operaciones al determinar si una pantalla de dispositivo está dañada. La aplicación de retorno puede realizar al menos una porción del análisis de la imagen, por ejemplo. En algunas implementaciones, puede capturarse y procesarse más de una imagen para determinar si la pantalla del dispositivo está dañada. En algunas implementaciones, puede ajustarse un coste de base para el dispositivo si se ha realizado una determinación de que la pantalla del dispositivo está dañada. Por ejemplo, si una pantalla de dispositivo está dañada puede reducirse el coste de base por el coste de sustitución de pantalla, coste de reparación de pantalla, costes de tiempo de procesamiento y/o costes de mano de obra.
En algunas implementaciones, la aplicación de retorno (por ejemplo, en el servidor y/o dispositivo) puede pre-procesar la imagen. Por ejemplo, la aplicación de retorno puede identificar imágenes de calidad pobre (por ejemplo, calidad pobre) capturadas (por ejemplo, una o más de las imágenes capturadas mediante la aplicación de retorno). La aplicación de retorno puede pre-procesar imágenes (por ejemplo, mediante la capa externa de la red neural y/o mediante la aplicación de retorno en el dispositivo de usuario) para identificar las imágenes pobres (por ejemplo, mediante un clasificador exterior en una red neural que se establece y entrena para detectar condiciones que pueden 'ocultar' una grieta y/o defectos). Por ejemplo, el pre-procesamiento puede identificar (por ejemplo, mediante el clasificador exterior) detalles de calidad pobres, tales como incluyendo dedos y/u otras obstrucciones a través de una pantalla, un objeto en la imagen que no es un teléfono, una pantalla completa que no está en la imagen y/o reflejos que pueden ocultar una grieta. En algunas implementaciones, la capa exterior en la red neural puede identificar (por ejemplo, mediante entrenamiento) otros defectos que provocan imágenes pobres. En algunas implementaciones, el pre-procesamiento puede filtrar imágenes basándose al menos parcialmente en otros factores que pueden calcularse analizando la imagen, tal como borrosidad y/o mal color. La borrosidad, asociada con calidad de imagen pobre, puede calcularse basándose en la tasa de cambio de colores en bordes para determinar si la imagen está enfocada o no enfocada. Puede detectarse mal coloración en la imagen, que puede estar asociada con calidad de imagen pobre, examinando la intensidad de color.
En algunas implementaciones, la condición de un primer dispositivo puede determinarse usando un segundo dispositivo (por ejemplo, un dispositivo diferente que el primer dispositivo). Por ejemplo, una primera pantalla de un primer dispositivo puede estar dañada de manera que un usuario puede no poder usar el dispositivo o puede no desear usar el dispositivo (por ejemplo, pueden lesionarse los dedos por grietas en la pantalla, esquirlas de la pantalla que están sueltas, las pantallas pueden dañarse adicionalmente por su uso, etc.). Por lo tanto, puede utilizarse un segundo dispositivo para capturar las imágenes del primer dispositivo. El primer y el segundo dispositivos pueden incluir la aplicación de retorno (por ejemplo, una o más operaciones de la aplicación de retorno pueden realizarse por procesadores del primer dispositivo y el segundo dispositivo). Puede recibirse una solicitud para evaluación de una condición de una pantalla de un primer dispositivo o porción del mismo mediante una aplicación de retorno en un segundo dispositivo. Las aplicaciones de retorno en el primer y segundo dispositivos pueden estar en comunicación (por ejemplo, directa y/o indirectamente mediante la aplicación de retorno en el servidor). Por ejemplo, la aplicación de retorno en el segundo dispositivo puede comunicarse con la aplicación de retorno en el primer dispositivo para permitir que se presenten gráficos en la pantalla del primer dispositivo mediante la aplicación de retorno. La aplicación de retorno puede presentar imágenes (por ejemplo, incluyendo el primer y/o segundo gráficos) en el primer dispositivo y permitir que las imágenes presentadas se capturen por el segundo dispositivo. Las imágenes capturadas pueden pre-procesarse y/o procesarse para determinar una condición de la pantalla del primer dispositivo. Por lo tanto, aunque un primer dispositivo puede estar restringido de su uso (por ejemplo, debido a daño), puede obtenerse una evaluación de la condición de la pantalla del primer dispositivo.
En algunas implementaciones, un dispositivo puede ajustar automáticamente la posición del dispositivo. Un dispositivo puede equilibrarse sobre una superficie aproximadamente nivelada, y, así, el dispositivo puede estar dispuesto en la superficie delante de un espejo. El dispositivo puede activar automáticamente una o más vibraciones para recolocar automáticamente (por ejemplo, rotar) el dispositivo. En algunas implementaciones, si el ajuste automático falla al situar el dispositivo en una posición predeterminada para captura de imagen, la aplicación de retorno puede solicitar mediante la notificación o notificaciones (por ejemplo, audio, táctil y/o visual) que el usuario ajuste la posición.
La notificación o notificaciones pueden transmitir instrucciones a un usuario sobre cómo volver a colocar el dispositivo (por ejemplo, más cerca, moverse más lejos, etc.), en algunas implementaciones. En algunas implementaciones, la aplicación de retorno puede generar una ayuda de colocación para presentar visualmente en el dispositivo. La ayuda de colocación puede indicar (por ejemplo, señales visuales, auditivas y/o táctiles) si el dispositivo está en una posición predeterminada, cómo de cerca está el dispositivo a la posición predeterminada, y/o en qué dirección el dispositivo está dentro y/o fuera de posición. Por ejemplo, la ayuda de colocación puede incluir un nivel de burbuja generado electrónicamente (por ejemplo, acelerómetros en el dispositivo; y/o el GPS puede facilitar la determinación de la orientación del dispositivo, puede calcular dónde se detecta el dispositivo en una imagen; y/o puede proporcionar realimentación en tiempo real de cambios en la posición o posiciones y/o ángulo o ángulos en los que se mantiene el dispositivo). En algunas implementaciones, las instrucciones pueden incluir instrucciones sobre cómo modificar un entorno (por ejemplo, una habitación) en la que está colocado el dispositivo. Por ejemplo, las instrucciones pueden incluir instrucciones para aumentar y/o reducir la iluminación, cerrar la ventana o ventanas (por ejemplo, para reducir el deslumbramiento), y/o cualesquiera otras instrucciones apropiadas.
En algunas implementaciones, la aplicación de retorno puede facilitar la captura de imágenes usando indicios (por ejemplo, de audio, táctiles y/o visuales). Por ejemplo, una interfaz de usuario gráfica de la aplicación de retorno puede proporcionar una impresión de un "túnel" en la interfaz de usuario gráfica (por ejemplo, mediante formaciones cuadradas en 3D). Por ejemplo, la interfaz de usuario gráfica puede generar la apariencia de túnel con el código de identificación (por ejemplo, código QR) en un extremo del túnel con tamaño y/o forma que coinciden con los cuadrados alineados requeridos. Esto puede guiar a que un usuario alinee y coloque el dispositivo en el ángulo correcto y distancia desde el espejo. La aplicación de retorno puede incluir otros indicios visuales y/o de audio. Por ejemplo, una interfaz de usuario gráfica puede incluir (por ejemplo, mediante superposiciones, ventanas emergentes, imágenes embebidas, etc.) flechas (por ejemplo, 2D y/o 3D) que apuntan para dirigir a un usuario a reorientar el dispositivo (por ejemplo, inclinación el lado hacia el lateral y/o de arriba a abajo, mover el teléfono hacia delante y/o hacia detrás).
En algunas implementaciones, puede generarse una notificación por la aplicación de retorno para su presentación visual en el dispositivo cuando la imagen o imágenes se capturan satisfactoriamente. Por ejemplo, una imagen capturada puede pre-procesarse. En algunas implementaciones, si se determina que la imagen o imágenes durante el pre-procesamiento no son procesables (por ejemplo, el servidor puede no determinar la condición de pantalla, por ejemplo, puesto que la imagen del dispositivo estaba cortada y/o no muestra la pantalla completa), el usuario puede recibir una o más notificaciones y/o puede solicitarse al usuario que reinicie el procedimiento o porciones del mismo. La red neural de la aplicación de retorno puede realizar una o más de las operaciones de pre-procesamiento. Por ejemplo, la red neural (por ejemplo, una capa externa de una red neural de múltiples capas) puede (por ejemplo, entrenando) actuar como un filtro para rechazar imágenes durante el pre-procesamiento que tienen problemas tales como, pero sin limitación, dedos que bloquean la pantalla y/o reflejo de luz de una ventana, etc. La red neural puede proporcionar una notificación para el usuario que incluye al menos una porción de la razón que la imagen capturada sea de calidad pobre. Esta razón para el rechazo puede facilitar (por ejemplo, para el usuario) el procedimiento de corrección (por ejemplo, reduciendo el trabajo de adivinación por el usuario al determinar la razón para el rechazo de la imagen capturada). En algunas implementaciones, la aplicación de retorno puede solicitar que el usuario inicie el procedimiento de reventa y/o inicie automáticamente el procedimiento de reventa después de la apertura de la aplicación de retorno.
En diversas implementaciones, para determinar una condición de la pantalla, la aplicación de retorno puede capturar (por ejemplo automática y/o manualmente con una selección de un usuario) la imagen o imágenes de la pantalla de dispositivo. La aplicación puede generar uno o más gráficos (por ejemplo, una instantánea, un patrón, visualizador de color sólido y/o interfaz de usuario gráfica) para su presentación visual en la pantalla de dispositivo, en algunas implementaciones. Los gráficos generados por la aplicación de retorno pueden incluir uno o más colores (por ejemplo, negro, blanco, verde, morado, etc.), uno o más patrones, una fotografía, una instantánea, un identificador (por ejemplo, código QR, código de barras, etc.), cualquier otro gráfico apropiado y/o combinaciones de los mismos. La generación del gráfico puede incluir recuperar un gráfico de una memoria (por ejemplo, del dispositivo y/o acoplada al dispositivo) y/o generar un identificador (por ejemplo, basándose en información de dispositivo tal como información de IMEI, información de usuario, información temporal tal como fecha/hora, y/o validación de tal información en tiempo real dentro de umbrales definidos para eliminar la reutilización de imágenes de dispositivo buenas tomadas previamente o imágenes de otro dispositivo, etc.). Algunos gráficos pueden facilitar la detección de la condición de la pantalla. Por ejemplo, el gráfico generado por la aplicación puede incluir un gráfico verde, negro y/o blanco sólido que cubre al menos una porción de la pantalla de visualización (por ejemplo, la porción activa de la pantalla de visualización o porciones de la misma).
En algunas implementaciones, la aplicación puede generar un primer gráfico que incluye un identificador y uno o más segundos gráficos. El primer gráfico y/o segundo gráfico o gráficos se analizan para determinar la condición de la pantalla de dispositivo. Por ejemplo, un primer gráfico puede incluir un identificador tal como un código QR. El identificador pueden generarse por la aplicación de retorno. Por ejemplo, la información de dispositivo (por ejemplo, información de IMEI, antigüedad de dispositivo, modelo de dispositivo, capacidad de memoria, etc.) y/o información de usuario puede codificarse en el identificador. La Figura 3A ilustra un ejemplo de colocación un dispositivo delante de un espejo, donde la aplicación de retorno genera un identificador para su presentación visual en la pantalla de dispositivo. Cuando la aplicación de retorno solicita que el usuario coloque el dispositivo de manera que la pantalla de dispositivo se refleje en un espejo, la aplicación de retorno puede generar el identificador para su presentación visual en la pantalla de dispositivo. La aplicación de retorno puede analizar a continuación el reflejo del identificador presentado visualmente en el espejo mediante la cámara (por ejemplo, una cámara que mira hacia delante del dispositivo) para determinar si debe ajustarse la posición del dispositivo. Por ejemplo, si el identificador está borroso en el reflejo del identificador en el espejo, puede notificarse y solicitarse al usuario que ajuste la posición del dispositivo. En algunas implementaciones, una vez que el dispositivo está en la posición apropiada, la aplicación de retorno puede capturar o no una imagen del reflejo de la pantalla de dispositivo en el espejo que incluye el código de identificador. En algunas implementaciones, la aplicación de retorno y/o el servidor pueden verificar el código QR capturado está asociado con el dispositivo (por ejemplo, el código QR puede decodificarse, compararse con información de dispositivo conocida, etc.).
La aplicación de retorno puede a continuación generar uno o más segundos gráficos (por ejemplo, una pantalla verde, una pantalla blanca y/u otros gráficos) y permitir la captura del reflejo de la segunda imagen o imágenes en el espejo. La Figura 3B ilustra un ejemplo de colocación de un dispositivo delante de un espejo, donde la aplicación de retorno en el dispositivo genera un segundo gráfico. En algunas implementaciones, la aplicación de retorno puede generar una notificación cuando se completa la captura de la imagen o imágenes, como se ilustra en la Figura 3C. La segunda imagen o imágenes capturadas pueden analizarse para determinar la condición de la pantalla. Por ejemplo, la segunda imagen o imágenes capturadas pueden transmitirse al servidor para análisis por la red neural en el servidor.
En algunas implementaciones, la aplicación de retorno puede generar automáticamente un segundo gráfico una vez que el código de identificador está enfocado, se ha capturado y/o se ha procesado (por ejemplo, verificado). Utilizando un segundo gráfico una vez que se ha capturado y/o validado el código de identificador, la condición de la pantalla de dispositivo puede identificarse más fácilmente, en algunas implementaciones. Por ejemplo, la detección de una condición de pantalla puede determinarse más fácilmente usando un gráfico que es fácilmente identificable por la red neural. En algunas implementaciones, el segundo gráfico puede generarse rápidamente inmediatamente antes de capturar una imagen del dispositivo de pantalla (por ejemplo, fotografiando el reflejo de la pantalla de dispositivo) y/o durante un breve periodo de tiempo después de que la aplicación de retorno ha determinado que el dispositivo está en la posición apropiada (por ejemplo, el identificador está enfocado en la imagen capturada del primer gráfico) para inhibir el fraude. En algunas implementaciones, los segundos gráficos pueden generarse secuencialmente para permitir la captura de segundas imágenes asociadas secuencialmente. En algunas implementaciones, la captura de las imágenes puede automatizarse para coordinar la generación gráfica y captura de imagen.
En algunas implementaciones, la primera imagen puede capturarse y/o procesarse de manera que pueden etiquetarse segundas imágenes (por ejemplo, fijarse y/o codificarse) con la primera imagen, porciones de la misma y/o un identificador decodificado. La segunda imagen o imágenes pueden capturarse antes de y/o después de la primera imagen, en algunas implementaciones. Etiquetando la segunda imagen o imágenes con la primera imagen o porción de la misma (por ejemplo, información obtenida decodificando el identificador), puede reducirse el fraude. Por ejemplo, un usuario puede inhibirse de la carga de una imagen de una pantalla de dispositivo diferente (por ejemplo, una pantalla de dispositivo no del dispositivo) puesto que una imagen descargada no puede incluir la porción codificada. En algunas implementaciones, la aplicación de retorno y/o el servidor pueden identificar segundas imágenes que no se etiquetan para identificar imágenes fraudulentas de la pantalla o pantallas de dispositivo.
La distancia en la que se capturan las imágenes por el dispositivo puede gestionarse también, en algunas implementaciones. Por ejemplo, la longitud focal de la cámara puede establecerse por la aplicación y la posición del dispositivo puede ajustarse hasta que el gráfico de identificador en la pantalla de dispositivo se enfoca en la imagen obtenida por la cámara. En algunas implementaciones, el tamaño del identificador (por ejemplo, código QR) en la imagen puede determinar la distancia apropiada a la que un usuario debe colocar el dispositivo del espejo. En algunas implementaciones, una detección de ángulo de esquina puede facilitar la determinación de si el dispositivo está colocado en la posición predeterminada para captura de imagen con respecto al ángulo en el que el dispositivo está colocado próximo al espejo. Por ejemplo, la posición predeterminada para captura de imagen puede incluir colocar el dispositivo paralelo a la superficie del espejo y así la detección de ángulo de esquina puede identificar los ángulos de esquina en la imagen y determinar los ángulos en cada esquina para determinar si el dispositivo estaba paralelo a la superficie del espejo en el momento de la captura de imagen.
En algunas implementaciones, la aplicación de retorno puede ajustar uno o más componentes del dispositivo para facilitar la captura de una imagen de pantalla de dispositivo. Por ejemplo, la aplicación de retorno puede desconectar el flash (por ejemplo, para evitar el deslumbramiento). Como otro ejemplo, la aplicación de retorno puede bloquear (por ejemplo, temporalmente) notificaciones de dispositivo (por ejemplo, anuncios, alertas, etc.) para permitir que una imagen del gráfico generado por la aplicación de retorno se genere sin interfaces de usuario gráficas y/o superposiciones adicionales.
Después de que la imagen o imágenes se capturan por la aplicación de retorno, puede analizarse una o más de las imágenes para determinar una condición de la pantalla de dispositivo. Por ejemplo, la imagen o imágenes que van a analizarse pueden incluir el segundo gráfico o gráficos. La Figura 4 ilustra una implementación de un procedimiento 400 de ejemplo para determinar una condición de una pantalla de dispositivo (por ejemplo, determinar si la pantalla está dañada). Puede recibirse (operación 410) una imagen que incluye una pantalla de dispositivo. Por ejemplo, el servidor puede recibir la imagen mediante la aplicación de retorno. La imagen puede cargarse automáticamente en el servidor y/o seleccionarse para carga por el usuario mediante la aplicación de retorno. La imagen puede incluir uno o más gráficos generados por la aplicación de retorno y presentarse visualmente en la pantalla de dispositivo.
La imagen puede procesarse por el servidor. Puede identificarse una porción seleccionada de la imagen recibida (operación 420). Por ejemplo, la imagen capturada por la aplicación de retorno puede incluir la pantalla de dispositivo y un área próxima la pantalla de dispositivo. Puede identificarse una porción seleccionada de la imagen, tal como la pantalla de dispositivo y/o porción activa de la pantalla de dispositivo (por ejemplo, la porción iluminada y/o porción que responde al toque). En algunas implementaciones, puede seleccionarse una porción seleccionada de la imagen recibida para reducir el tamaño de la imagen a la porción relevante para el análisis de la condición de la pantalla de dispositivo (por ejemplo, un análisis del área próxima al dispositivo puede no indicar si una pantalla está dañada). La Figura 5A ilustra una implementación de una imagen 500 de ejemplo que incluye una pantalla 510 de dispositivo. Como se ilustra, la imagen incluye la pantalla 510 de dispositivo y un área próxima a la pantalla 520 de dispositivo. La pantalla 510 de dispositivo puede detectarse usando la detección 535 de esquina, como se ilustra en la imagen 530 en la Figura 5B. La Figura 6B ilustra una implementación de una imagen 600 de ejemplo que incluye una pantalla 610 de dispositivo. Como se ilustra la imagen incluye la pantalla 510 de dispositivo y un área próxima al dispositivo 620. Los componentes del dispositivo pueden identificarse en la imagen usando detección de borde de los bordes 630 del dispositivo en la imagen, en algunas implementaciones. Como se ilustra, la pantalla 610 de dispositivo, puede identificarse el micrófono, altavoz y la carcasa en la imagen. La identificación de uno o más componentes puede facilitar la determinación de la condición de la pantalla de dispositivo fuera del área activa de la pantalla de dispositivo y/o puede facilitar el identificador de daño a otros componentes (por ejemplo, una grieta por encima del micrófono puede indicar que el micrófono está dañado también).
En algunas implementaciones, el tamaño de imagen puede modificarse (por ejemplo, recortarse o reducirse de otra manera) de manera que únicamente se muestra la porción seleccionada de la imagen en la imagen modificada. En algunas implementaciones, la porción seleccionada de la imagen recibida puede etiquetarse o identificarse de otra manera en la imagen.
La porción seleccionada de la imagen puede ajustarse (operación 430). Por ejemplo, el servidor puede ajustar el contraste, brillo, coloración, nitidez, exposición, sangrado, alineación, traslación de imagen, tamaño y/u otros aspectos apropiados de la imagen. En algunas implementaciones, puede reducirse el ruido para facilitar el identificador de daño de pantalla, a diferencia de marcas que son más atribuibles a ruido. La Figura 6A ilustra una implementación de una imagen 600 de ejemplo que incluye una pantalla 610 de dispositivo antes de que se haya ajustado la imagen y la Figura 6B ilustra un ejemplo de una imagen 650 ajustada. La imagen 650 ajustada reduce el ruido 640 en el dispositivo (por ejemplo, líneas, sombreado y/u otras características no atribuibles al daño de la pantalla).
La imagen ajustada puede dividirse en partes (operación 440). Por ejemplo, la imagen ajustada puede dividirse en una pluralidad de partes. La Figura 7 ilustra una implementación de un ejemplo de una imagen ajustada que incluye una pantalla 710 de dispositivo y las partes 720 resultantes. La división puede ser recortando la imagen en partes pequeñas, que identifican regiones de una imagen como partes, y/o dividiendo de otra manera la imagen según sea apropiado. El procesamiento de cada parte de la porción seleccionada de la imagen puede procesarse más rápidamente por el servidor (por ejemplo, la red neural del servidor) que si toda la imagen se procesara por el servidor. Por lo tanto, dividir la imagen puede aumentar la velocidad en la que se procesa la imagen o la imagen ajustada. Por ejemplo, cada parte de la imagen ajustada puede analizarse por un nodo de la red neural. Por lo tanto, puesto que cada nodo está analizando una parte discreta de la imagen, el análisis puede realizarse más rápido que si toda la imagen se analizara por un servidor. En algunas implementaciones, dividir la imagen en partes puede aumentar la probabilidad de que se detecte una condición de pantalla y/o se reduzca la probabilidad de una condición de la pantalla que se identifique de manera falsa. Por ejemplo, puesto que el daño de pantalla puede extenderse en más de una parte de una imagen, el identificador de una probabilidad alta de daño de la pantalla en una o más partes adyacentes puede aumentar la probabilidad de daño de pantalla en una primera parte. En algunas implementaciones, el tamaño y/o forma del daño y si una parte adyacente incluye una probabilidad predeterminada de daño puede analizarse para determinar si la parte, y, por lo tanto el dispositivo, incluye daño. Por ejemplo, las formas y/o tamaños seleccionados de grietas puede saberse que se extienden a través de múltiples partes adyacentes, y si múltiples partes adyacentes no incluyen una probabilidad predeterminada de daño, la probabilidad global de daño de pantalla puede reducirse. Como otro ejemplo, algunas formas y/o tamaños seleccionados de esquirlas pueden no extenderse a través de múltiples partes adyacentes de la imagen, y la ausencia de una probabilidad predeterminada de daño en las partes adyacentes puede no ajustar la probabilidad global de daño de pantalla.
Puede realizarse una determinación de si una o más partes de la imagen muestra daño (operación 450). Por ejemplo, el servidor puede analizar la parte para determinar si está presente daño de pantalla (por ejemplo, grieta, mella, esquirla, daño de píxel, etc.). La red neural del servidor puede realizar el análisis de una o más partes de la imagen ajustada basándose en patrones y/o técnicas de identificador aprendidas de imágenes de pantalla de dispositivo anteriores y/o un conjunto de imágenes de pantalla conocidas (por ejemplo, que se sabe que tienen o no tienen daño de pantalla). En algunas implementaciones, permitir que las partes se analicen por la red neural del servidor puede permitir mejora y mantenimiento fáciles de la red neural y mejorar la precisión (por ejemplo, puesto que las imágenes de pantalla de dispositivo anteriores de una pluralidad de dispositivos pueden haber sido analizadas).
Puede realizarse una determinación de si la pantalla de dispositivo está dañada basándose en la determinación de si una parte muestra daño y/o si una parte adyacente muestra daño (operación 460). Si se ha realizado una determinación de que una parte está dañada (por ejemplo, la decisión binaria tal como daño sí o no; la probabilidad de daño supera la probabilidad predeterminada, tal como el 50 % de probabilidad de daño), el servidor puede identificar la parte o partes adyacentes. Puede determinarse si está dañada una o más partes adyacentes y puede utilizarse por el servidor (por ejemplo, la red neural) para determinar si la pantalla debe identificarse como dañada. Por ejemplo, si una parte tiene una probabilidad de daño del 20 % y 4 partes próximas tienen una probabilidad de daño del 50 %, puede realizarse una determinación de que la pantalla está dañada. Como otro ejemplo si una parte tiene una probabilidad de daño del 50 % y ninguna parte próxima tiene una probabilidad de daño mayor que el 25 %, puede realizarse una determinación (por ejemplo, por el servidor) de que la pantalla no está dañada. En algunas implementaciones, la probabilidad global de daño a una pantalla de dispositivo puede no reducirse basándose en probabilidades de daño en partes adyacentes basándose en características del daño (por ejemplo, ubicación, tamaño y/o forma). En algunas implementaciones, a medida que la precisión de la red neural aumenta, puede reducirse el intervalo predeterminado de probabilidades asociadas con la pantalla o pantallas dañadas. Por ejemplo, el sistema puede indicar que cuando una probabilidad de daño de pantalla es mayor que el 70 % en una parte, puede determinarse que existe daño de pantalla; y, cuando la precisión de red neural aumenta, el sistema puede indicar que cuando una probabilidad de daño de pantalla es mayor que el 50 % en una parte, puede determinarse que existe daño de pantalla.
La notificación o notificaciones pueden transmitirse basándose en la determinación de si la pantalla de dispositivo está dañada (operación 470). Por ejemplo, si se ha realizado una determinación de que la pantalla está dañada o no está dañada, un usuario puede recibir una notificación basándose en esta determinación. En algunas implementaciones, si se ha realizado una determinación de que la pantalla de dispositivo está dañada, el usuario puede estar permitido a impugnar la determinación reiniciando una o más operaciones del procedimiento (por ejemplo, recolocar el dispositivo y/o volver a tomar imágenes). En algunas implementaciones, una notificación de si la pantalla de dispositivo está dañada y/o un precio basándose en la condición de la pantalla de dispositivo puede transmitirse a la aplicación para presentación a un usuario mediante la aplicación de retorno.
La notificación o notificaciones pueden transmitirse basándose en la determinación de que la red neural podría no evaluar de manera precisa la condición de la pantalla de dispositivo. Por ejemplo, durante el procesamiento de imagen el servidor puede identificar que la pantalla completa no estaba en la imagen. La determinación puede realizarse calculando relaciones de aspecto de pantalla esperadas, valores de ángulo de la pantalla esperados, dimensiones de un modelo esperadas, etc. El servidor puede dar instrucciones al usuario a través de la aplicación de retorno para capturar otra imagen. El servidor puede proporcionar instrucciones al usuario a través de la aplicación de retorno de la mejor manera para colocar el dispositivo, en tiempo real.
El procedimiento 400 puede implementarse por diversos sistemas, tales como el sistema 100. Además, diversas operaciones pueden añadirse, borrarse y/o modificarse. En algunas implementaciones, el procedimiento 400 puede realizarse en combinación con otros procedimientos tal como el procedimiento 200. Por ejemplo, la condición del dispositivo puede determinarse para reventa del dispositivo. Puesto que un precio de reventa y/o demanda para un dispositivo en un mercado de reventa puede estar basado al menos parcialmente en la condición del dispositivo, determinar automáticamente la condición del dispositivo y/o componentes del mismo puede facilitar la determinación de un precio para ofrecer para un dispositivo (por ejemplo, que se revenderá). En algunas implementaciones, la condición del dispositivo puede determinarse para facilitar la determinación de si puede reutilizarse un dispositivo (por ejemplo, por otro usuario). La condición puede determinarse y el otro usuario puede determinar un precio para ofrecer para el dispositivo, si un dispositivo puede reutilizarse, si usar el dispositivo como está, y/o tener que reparar el dispositivo. En algunas implementaciones, la condición del dispositivo puede determinarse para su uso con una política de aseguración de dispositivo. Por ejemplo, si un usuario quisiera obtener aseguración de dispositivo, la aplicación de retorno puede utilizarse para determinar una condición del dispositivo y/o componentes del mismo. La condición del dispositivo y/o un historial de la condición del dispositivo (por ejemplo, múltiples grietas de pantalla que se han reparado) pueden utilizarse para determinar si ofrecer una política de aseguración de dispositivo, un precio para establecer una política de aseguración de dispositivo, y/o verificar una condición del dispositivo proporcionado por el usuario. En algunas implementaciones, el usuario puede desear enviar una reclamación de seguro y puede determinarse la condición del dispositivo o componentes del mismo por la aplicación de retorno para enviar con el reclamo de aseguración y/o para verificar partes de una reclamación de seguro.
En algunas implementaciones, en lugar de y/o en el lugar del primer gráfico y/o código de identificación, puede obtenerse un IMEI y/u otro código específico de dispositivo y/o sistema operativo específico y/o utilizarse para facilitar la identificación de un dispositivo. Por ejemplo, el IMEI y/u otro código pueden estar asociados con las imágenes de la pantalla capturadas mediante los segundos gráficos para identificar un dispositivo específico. Puede guiarse a un usuario (por ejemplo, mediante solicitudes en una interfaz de usuario gráfica de la aplicación de retorno) a la página de ajustes del dispositivo donde se presenta visualmente el IMEI y/o puede solicitarse que el usuario marque códigos en el marcador para presentar visualmente el IMEI. El usuario puede capturar una captura de pantalla del IMEI (por ejemplo, mediante la cámara del dispositivo y/o segundo dispositivo que se usa para capturar imágenes). La aplicación de retorno puede procesar la captura de pantalla (por ejemplo, mediante OCR) para identificar el IMEI. En algunas implementaciones, un usuario puede instalar un perfil de una configuración de servidor similar a un servidor de MDM. El perfil puede proporcionar el IMEI al servidor. El servidor puede pasar el IMEI a la aplicación de retorno. En algunas implementaciones, el perfil puede reducir el número de etapas que un usuario realiza para proporcionar el IMEI a la aplicación de retorno. En algunas implementaciones, pueden realizarse una o más de estas capacidades por la aplicación de retorno. El IMEI obtenido puede utilizarse mediante la aplicación de retorno para etiquetar imágenes capturadas (por ejemplo, segundos gráficos) y/o para asegurar la autenticidad (por ejemplo, mediante el IMEI obtenido).
En algunas implementaciones, la condición de un primer dispositivo puede determinarse usando un segundo dispositivo. Por ejemplo, una pantalla de un primer dispositivo puede estar dañada de manera que un usuario no pueda usar el dispositivo o pueda no desear usar el dispositivo (por ejemplo, pueden lesionarse los dedos por las grietas en la pantalla, las esquirlas de la pantalla están sueltas, pude dañarse adicionalmente la pantalla por el uso, etc.). Por lo tanto, puede utilizarse un segundo dispositivo para capturar las imágenes del primer dispositivo. El primer y el segundo dispositivos pueden incluir la aplicación de retorno (por ejemplo, una o más operaciones de la aplicación de retorno pueden realizarse por procesadores del primer dispositivo y el segundo dispositivo). Puede recibirse una solicitud para evaluación de una condición de una pantalla de un primer dispositivo o porción del mismo mediante una aplicación de retorno en un segundo dispositivo. Las aplicaciones de retorno en el primer y segundo dispositivos pueden estar en comunicación (por ejemplo, directa y/o indirectamente mediante la aplicación de retorno en el servidor). Por ejemplo, la aplicación de retorno en el segundo dispositivo puede comunicarse con la aplicación de retorno en el primer dispositivo para permitir que se presenten gráficos en la pantalla del primer dispositivo mediante la aplicación de retorno. Un primer gráfico puede presentarse en la pantalla del primer dispositivo mediante la aplicación de retorno en el primer dispositivo, y el gráfico puede incluir un primer código de identificación. Al menos una porción del primer gráfico presentado en el primer dispositivo puede capturarse mediante una cámara del segundo dispositivo. La aplicación de retorno puede tener acceso a funciones de cámara de un dispositivo, y por lo tanto una aplicación de retorno puede permitir la captura de una imagen. Pueden presentarse uno o más segundos gráficos en la pantalla del primer dispositivo (por ejemplo, mediante la aplicación de retorno en el primer dispositivo) y al menos una porción de uno o más de los segundos gráficos presentados en el primer dispositivo puede capturarse mediante una cámara del segundo dispositivo. Una o más de las segundas imágenes pueden pre-procesarse y/o procesarse para determinar una condición de la pantalla del primer dispositivo. La imagen del primer gráfico puede utilizarse para decodificar un código de identificación en el primer gráfico (por ejemplo, para verificar la identidad del primer dispositivo). En algunas implementaciones, el código de identificación puede incluir un código único para el primer dispositivo tal como el número de IMEI, que puede utilizarse por la aplicación de retorno para verificar la identificación del primer dispositivo y/o imágenes capturadas de la pantalla del primer dispositivo.
En algunas implementaciones, el primer gráfico puede presentarse o no y/o capturarse cuando se utiliza un segundo dispositivo para determinar una condición de un primer dispositivo. Un nivel de seguridad y/o autenticación proporcionado por la aplicación de retorno que captura imágenes en el dispositivo para que se evalúen por la aplicación de retorno puede no ser tan fuerte como cuando se utiliza un segundo dispositivo para capturar las imágenes del primer dispositivo, que se está analizando. Por lo tanto, en algunas implementaciones, las reclamaciones de seguro, las valoraciones, la suscripción y/o los reembolsos pueden ajustarse para tener en cuenta el riesgo aumentado en las operaciones de usuario engañosas.
En algunas implementaciones, procesar una segunda imagen puede incluir dividir la segunda imagen en partes; determinar si una o más de las partes de la segunda imagen incluyen daño; identificar partes adyacentes a una o más de las partes que incluyen daño; y determinar una condición de la pantalla del primer dispositivo basándose en si una o más de las partes de la segunda imagen se determina que incluyen daño y si una o más de las partes adyacentes a una de las partes determinada que incluye daño también incluyen daño. La pantalla y/o porción de la misma (área activa) puede identificarse o no desde la segunda imagen antes de dividir la imagen en partes. Por ejemplo, la red neural puede entrenarse para identificar daño en imágenes incluso si el área activa no está aislada, en algunas implementaciones.
En algunas implementaciones, pueden realizarse una o más de las operaciones con una o más imágenes adicionales. La determinación de si la pantalla de dispositivo está dañada puede estar basada en el análisis de la imagen y las imágenes adicionales, en algunas implementaciones. En algunas implementaciones, la aplicación de retorno puede procesar o procesar al menos parcialmente la imagen antes de transmitir la imagen al servidor. En algunas implementaciones, la imagen puede no dividirse antes del análisis. En algunas implementaciones, la imagen puede no procesarse antes del análisis para la condición de la pantalla. Puede realizarse una determinación de si la pantalla de dispositivo está dañada basándose en la determinación de si una parte muestra daño incluso si una parte adyacente no muestra daño, en algunas implementaciones. Por ejemplo, si una parte muestra el 100 % de probabilidad de daño y/o una grieta profunda, puede realizarse una determinación de que la pantalla del dispositivo está dañada. En algunas implementaciones, la aplicación de retorno captura la imagen, recibe la imagen y/o almacena la imagen (por ejemplo, en lugar de y/o además del servidor). En algunas implementaciones, la aplicación de retorno puede realizar las operaciones o más (por ejemplo, en lugar de o en conjunto con el servidor).
En algunas implementaciones, puede utilizarse una pluralidad de imágenes como los segundos gráficos. Por ejemplo, la aplicación de retorno puede presentar y/o capturar un conjunto de segundas imágenes. El conjunto de segundas imágenes pueden variar en coloración. El conjunto de segundas imágenes puede capturarse mediante ráfagas de capturas (por ejemplo, capturar automáticamente una pluralidad de imágenes en un breve periodo de tiempo a diferencia de capturar manualmente la pluralidad de imágenes). La ráfaga de capturas puede usar los mismos o diferentes ajustes de captura (por ejemplo, flash, exposición, distancia focal, etc.). La aplicación de retorno (por ejemplo, en el dispositivo y/o mediante las redes neurales en el servidor) puede comparar una o más de las imágenes capturadas con un color y/o imagen de referencia predeterminada que incluye el color de referencia predeterminado para identificar una segunda imagen capturada para procesamiento (por ejemplo, para determinar un estado de la pantalla). Las imágenes con calidades de imagen pobre tales como coloración y/o borrosidad pueden identificarse o no como segundas imágenes capturadas, en algunas implementaciones.
En algunas implementaciones, puede utilizarse uno o más otros ajustes automáticos para capturar las imágenes. Por ejemplo, la ráfaga de capturas puede variar el brillo, colores, orientación, distancia focal, etc., para obtener mejores consistencias en imágenes capturadas (por ejemplo, para determinar de manera precisa una condición de estado puesto que la consistencia en imágenes puede facilitar el análisis por redes neurales). Por ejemplo, el brillo de la segunda imagen puede variarse durante la ráfaga de capturas para proporcionar un conjunto de imágenes capturadas. Las imágenes en el conjunto pueden compararse al color de referencia para identificar segundas imágenes capturadas para procesamiento adicional (por ejemplo, para determinar una condición de la pantalla). En algunas implementaciones, la aplicación de retorno puede solicitar que el usuario reoriente el dispositivo para obtener el conjunto de imágenes capturadas (por ejemplo, para permitir la captura de imágenes en diferentes ángulos puesto que pueden tomarse múltiples imágenes para cambiar la perspectiva de grieta que puede no ser visible en un ángulo).
En algunas implementaciones, obtener múltiples imágenes capturadas en la misma sesión con diferentes ajustes de pantalla puede aumentar la visibilidad de la grieta a la red neural (por ejemplo, las imágenes pueden destacar diferentes tipos y/o posiciones de agrietamiento de pantalla). La aplicación de retorno puede utilizar segundos gráficos en diferentes colores para facilitar la identificación de pantallas dañadas. En algunas implementaciones, iii. Múltiples ángulos de inclinación con UI para guiar la colocación apropiada -
En algunas implementaciones, el conjunto de imágenes capturadas puede compararse a imágenes de referencia (por ejemplo, color, intensidad, etc.) para seleccionar qué imágenes procesar adicionalmente para determinar una condición de un dispositivo. Por ejemplo, la aplicación de retorno puede seleccionar una imagen más cerca del brillo/color/intensidad de imágenes usadas para entrenamiento para mejorar los resultados de precisión. En algunas implementaciones, usando operaciones de la aplicación de retorno, se toma el color sobre un área de la imagen conocida que es la pantalla. El color se hace coincidir a un color de referencia conocido para presentar visualmente mejor la visibilidad de la grieta mientras se minimizan otros defectos tales como reflejos, mal color, etc. La imagen con el color más cerca del color de referencia se envía a la red neural para procesamiento. La mejora de consistencia de imagen puede hacer el análisis (por ejemplo, realizado por la red neural de la aplicación de retorno) menos dependiente de las condiciones de luz.
En algunas implementaciones, la captura de ráfagas de imágenes puede facilitar la captura de una o más imágenes (por ejemplo, con los mismos o diferentes gráficos), en las que los niveles de luminosidad no son los mismos. Uno o más de los colores en la imagen pueden a continuación hacerse coincidir a un color de referencia para identificar la imagen capturada (por ejemplo, del conjunto de imágenes a ráfagas capturadas) que es la más cercana al color de referencia. Utilizar la captura a ráfagas con diferentes niveles de luminosidad puede permitir más consistencia y/o reducir la variabilidad en el procedimiento de captura de imagen y/o imágenes capturadas enviadas a la red neural para análisis. Esto puede reducir errores en análisis, en algunas implementaciones.
En algunas implementaciones, la captura del primer gráfico puede proporcionar el ajuste o ajustes de exposición iniciales. Por ejemplo, la imagen del primer gráfico puede obtenerse y analizarse para identificar un ajuste de exposición inicial (por ejemplo, si las imágenes son demasiado brillantes, borrosas, etc.). Generar el ajuste de exposición inicial puede mejorar la captura de imagen.
En diversas implementaciones, puede identificarse una condición de una o más pantallas de un dispositivo (por ejemplo, electrónica tal como un dispositivo móvil, portátil, etc.). La condición del dispositivo puede determinarse usando operaciones del dispositivo y/o operaciones de otros dispositivos. Por ejemplo, si un primer dispositivo carece de una cámara y/o carece de una cámara operacional, entonces puede utilizarse un segundo dispositivo para capturar imágenes del primer dispositivo o porciones del mismo (por ejemplo, pantalla, lado frontal, etc.). Como otro ejemplo, si los componentes del primer dispositivo representan el primer dispositivo al menos parcialmente no operacional (por ejemplo, pantalla agrietada de manera que el uso puede lesionar a un usuario y/o dañar adicionalmente el dispositivo, la pantalla táctil no funciona, píxeles atascados interfieren con el uso, etc.), entonces puede utilizarse un segundo dispositivo para capturar imágenes del primer dispositivo o porciones del mismo (por ejemplo, pantalla, lado frontal, lado trasero, etc.).
En algunas implementaciones, un primer dispositivo puede utilizarse para capturar imágenes del primer dispositivo colocando el dispositivo de manera que una imagen del dispositivo puede capturarse en una superficie reflectante, tal como un espejo. Los riesgos asociados con fraude pueden reducirse utilizando una propia cámara del dispositivo para capturar imágenes (por ejemplo, de manera que las imágenes de dispositivos similares no se presentan en su lugar). Puede recibirse una solicitud para evaluación de una condición de un componente, tal como una pantalla, de un primer dispositivo o porción del mismo mediante una aplicación de retorno en el primer dispositivo. La aplicación de retorno puede residir en el primer dispositivo y/o ser accesible por el primer dispositivo (por ejemplo, almacenarse de manera remota). La aplicación de retorno puede presentar una o más interfaces de usuario gráficas para facilitar la comunicación con un usuario y/o presentar gráficos en una pantalla del dispositivo.
La aplicación de retorno puede presentar uno o más gráficos en una pantalla del primer dispositivo (por ejemplo, mediante una interfaz de usuario gráfica generada por la aplicación de retorno) para captura por la cámara del primer dispositivo. Por ejemplo, un primer gráfico puede generarse y/o presentarse en una pantalla (por ejemplo, componente de presentación visual) del primer dispositivo (por ejemplo, por la aplicación de retorno). El primer gráfico puede incluir uno o más primeros códigos de identificación tales como un IMEI asociado con el dispositivo, un número de codificación generado por la aplicación de retorno y asociado con el dispositivo, un código QR, etc. El código de identificación puede analizarse (por ejemplo, decodificarse, compararse a un listado de códigos, etc.) para verificar la identidad del primer dispositivo. Al menos una porción de una primera imagen del primer gráfico puede capturarse por la cámara del primer dispositivo. La primera imagen puede incluir un reflejo del primer gráfico en una superficie reflectante, tal como un espejo. El primer gráfico y/o el código de identificación del primer gráfico pueden etiquetarse o embeberse de otra manera en otras imágenes capturadas (por ejemplo, segundas imágenes que incluyen segundos gráficos). El primer gráfico puede utilizarse por la aplicación de retorno para determinar ajustes iniciales (por ejemplo, brillo, contraste, orientación, distancia a superficie reflectante, etc.) para usarse en presentación y/o captura de gráficos posterior. En algunas implementaciones, puede no utilizarse el primer gráfico (por ejemplo, generarse y/o capturarse).
Otras imágenes pueden generarse y/o presentarse por la aplicación de retorno para facilitar la identificación de daño en el dispositivo o porción del mismo (por ejemplo, la pantalla). Uno o más segundos gráficos pueden generarse y/o presentarse (por ejemplo, mediante las interfaces de usuario gráficas de la aplicación de retorno) en la pantalla del primer dispositivo. Los segundos gráficos pueden incluir gráficos configurados para facilitar la identificación de daño (por ejemplo, grietas, magulladuras, esquirlas, etc.) por la aplicación de retorno (por ejemplo, usando una red neural entrenada). Por ejemplo, los segundos gráficos pueden incluir un color sólido, color variable, patrón o patrones, imágenes, etc. En algunas implementaciones, el segundo gráfico puede incluir un conjunto de gráficos en los que cambian las imágenes presentadas visualmente en el gráfico y/o cambian ajustes usados para presentar el segundo gráfico en la pantalla. Por ejemplo, una luminosidad de la imagen presentada puede cambiarse para presentar el mismo segundo gráfico de diferentes maneras para capturar. En algunas implementaciones, puede generarse y/o presentarse un único segundo gráfico (por ejemplo, un gráfico verde sólido). Puede capturarse al menos una porción de una o más segundas imágenes de al menos uno de los segundos gráficos (por ejemplo, mediante una cámara del primer dispositivo). Una o más de las segundas imágenes puede incluir un reflejo de al menos uno de los segundos gráficos en la superficie reflectante, tal como un espejo. La imagen capturada puede incluir más de la pantalla (por ejemplo, la cara frontal, área próxima al dispositivo, etc.). La aplicación de retorno puede controlar y/o permitir que el usuario controle el componente de cámara del primer dispositivo. La aplicación de retorno puede tener acceso a las imágenes capturadas por la cámara del primer dispositivo.
En algunas implementaciones, pueden pre-procesarse las imágenes capturadas (por ejemplo, primera y/o segunda imágenes capturadas). El pre-procesamiento pueden realizarse por la aplicación de retorno en el dispositivo de usuario y/o en el servidor (por ejemplo, usando la red neural entrenada). El pre-procesamiento puede identificar imágenes de calidad pobres, por ejemplo, identificando porciones en la imagen capturada que no están asociadas con la imagen presentada y/o daño a la pantalla (por ejemplo, obstrucciones, reflejos de flash, etc.). El pre-procesamiento puede identificar imágenes parciales y/o imágenes borrosas. En algunas implementaciones, la determinación por la aplicación de retorno en pre-procesamiento que la imagen capturada es de pobre calidad puede hacer que la aplicación de retorno rechace la imagen y/o solicite la recaptura de la imagen. Cuando se recaptura la imagen, la aplicación de retorno puede regenerar y/o presentar los gráficos en la pantalla del primer dispositivo. La aplicación de retorno puede modificar el gráfico, ajustes de dispositivo y/o solicitar que el usuario ajuste en la recaptura (por ejemplo, restringir el flash, orientación de ajuste, etc.). En algunas implementaciones, pueden procesarse imágenes de calidad pobre para identificar una condición de un componente del dispositivo.
Una o más de las segundas imágenes pueden procesarse para determinar una condición de un componente, tal como la pantalla, del primer dispositivo. El procesamiento de la segunda imagen o imágenes puede incluir dividir la segunda imagen en partes y determinar si una o más de las partes de la segunda imagen incluyen daño. La segunda imagen puede dividirse en partes para permitir procesamiento más rápido (por ejemplo, en comparación con el procesamiento de imagen total) y mejorar la precisión (por ejemplo, permitiendo el análisis de regiones próximas al determinar la probabilidad de daño). En algunas implementaciones, las partes adyacentes a una o más de las partes que incluyen daño pueden identificarse como partes adyacentes. Las partes adyacentes pueden incluir o no daño.
Una condición de la pantalla del primer dispositivo puede determinarse basándose en si una o más de las partes de una o más de las segundas imágenes se determina que incluyen daño y si una o más de las partes adyacentes (por ejemplo, una parte próxima a una parte específica) a una de las partes determinadas que incluye daño también incluyen daño. Por ejemplo, puede entrenarse la red neural para identificar patrones de daño común y puede usarse la información con respecto a partes adyacentes (por ejemplo, si partes próximas están dañadas y/o no dañadas) para determinar si una parte está dañada.
En algunas implementaciones, la determinación de si un componente tal como la pantalla del primer dispositivo está dañado puede incluir información de daño adicional tal como una calificación (por ejemplo, calificación de gravedad, tipo de calificación de daño, etc.), ubicación de daño, etc. La información de daño adicional y/o la determinación de si el componente del dispositivo está dañado puede presentarse al usuario y/o utilizarse en otras operaciones de la aplicación de retorno (por ejemplo, para reducir la valoración, para reclamaciones de seguro, reclamaciones de garantía, etc.).
Los procedimientos descritos pueden implementarse por diversos sistemas, tales como el sistema 100. Además, diversas operaciones pueden añadirse, borrarse y/o modificarse. En algunas implementaciones, los procedimientos o porciones de los mismos pueden realizarse en combinación con operaciones de otros procedimientos tales como los procedimientos 200 y/o 400. Por ejemplo, la captura de segundas imágenes puede incluir una captura a ráfagas de segundas imágenes. Los ajustes de dispositivo pueden modificarse ya que están permitidas capturas en ráfagas. Las imágenes capturadas pueden compararse con una imagen de referencia para identificar cuál del conjunto de imágenes capturadas procesar. Por ejemplo, puede seleccionarse una imagen con el color más cerca de un color de referencia (por ejemplo, puede ajustarse el brillo y/o contraste en el dispositivo para obtener diferentes colores en la segunda imagen a medida que tiene lugar la ráfaga de capturas de imagen). El conjunto de imágenes capturadas pueden pre­ procesarse para identificar qué imágenes pueden procesarse. Como otro ejemplo, el procesamiento de la segunda imagen capturada puede incluir la generación de una tercera imagen en la que las porciones de la imagen que no están asociadas con la pantalla del dispositivo se eliminan de la imagen (por ejemplo, recortadas). Esta tercera imagen puede analizarse por al menos porciones de la red neural (por ejemplo, dividirse en partes y/o analizarse) para identificar si la pantalla está dañada. En algunas implementaciones, pueden procesarse imágenes de calidad pobre para identificar una condición de un componente de un dispositivo. Por ejemplo, puede procesarse una imagen borrosa y la red neural puede tener en cuenta la borrosidad de la imagen en el análisis (por ejemplo, reduciendo la sensibilidad de la detección de daño para evitar la identificación excesiva de daño).
En algunas implementaciones, una o más de las operaciones pueden realizarse por un segundo dispositivo para obtener una condición de un primer dispositivo. Por ejemplo, el segundo dispositivo puede incluir una cámara para capturar imágenes presentadas en el primer dispositivo por la aplicación de retorno. La aplicación de retorno en el segundo dispositivo puede permitir la captura de las imágenes y/o coordinar la presentación de las imágenes en el primer dispositivo, el procesamiento (por ejemplo, pre-procesamiento y/o procesamiento) de las imágenes capturadas, y/o la identificación de una condición del primer dispositivo. En algunas implementaciones, el cambio creciente de fraude asociado con capturar imágenes usando un dispositivo diferente del dispositivo, del cual se está determinando una condición, puede tenerse en cuenta en la suscripción de seguros, medidas de seguridad (por ejemplo, inspección física tras la recepción del dispositivo para permuta, venta y/o retorno), y/o descuentos (por ejemplo, reducción del valor determinado y/o precio de venta).
En algunas implementaciones, la captura de imágenes puede ser al menos parcialmente automatizada. Cuando la imagen satisface los ajustes de exposición inicial, puede obtenerse la imagen. Por ejemplo, un usuario puede mover un teléfono y cuando el teléfono está en la posición óptima (por ejemplo, satisface los ajustes de exposición inicial), la imagen puede capturarse automáticamente. El ajuste de exposición inicial puede incluir criterios relacionados con la colocación de la cámara con relación a la pantalla y/o el espejo, el ángulo de inclinación, ajustes de flash, ajustes de brillo, etc. En algunas implementaciones, puede calibrarse un brillo de la pantalla de teléfono del ajuste de exposición inicial antes de la colocación del código de identificación de teléfono. En algunas implementaciones, puede ajustarse el brillo durante la duración de la calibración con diferentes ajustes de brillo y exposición. El brillo donde una visibilidad predeterminada de un código de identificación, tal como un código QR, puede seleccionarse como brillo de referencia en condiciones de iluminación actuales. Este brillo de referencia puede usarse como valor de mediana para múltiples capturas de imágenes con diferente brillo, en algunas implementaciones.
En algunas implementaciones, las imágenes capturadas pueden procesarse por la red neural en resolución completa o una resolución inferior. La imagen enviada a diferentes niveles pueden variar o no. Por ejemplo, las imágenes capturadas pueden pasarse a través de todos los niveles de la red neural en resolución completa y quedar un fichero de PNG. En algunas implementaciones, cuando la imagen se envía a un primer nivel de la red neural, puede reducirse la imagen (por ejemplo, a 128x256). La imagen muestreada descendentemente puede enviarse a una o más de las capas de la red neural como una matriz de intensidades de color. Por ejemplo, Byte(rojo) Byte(verde) Byte(azul), Byte(rojo), Byte(verde), Byte(azul) serían 2 píxeles del píxel (0,0) y el píxel (0,1). En algunas implementaciones, la primera capa de la red neural puede ser un pre-procesamiento (por ejemplo, devolver que la imagen es de calidad pobre y no procesable y/o la imagen es procesable). En algunas implementaciones, cuando la imagen capturada se envía a la capa final, la imagen capturada puede muestrearse por un parche y un deslizador (por ejemplo, el parche puede ser 32 de manera que las piezas son 32 x 32, y el deslizador puede ser 17 de manera que la red toma una pieza desde 1,1 y a continuación la siguiente pieza se toma desde 1, 17; y/o cualquier otro parche y/o deslizador apropiados). Puede haber o no un solapamiento para las piezas que se están enviando en las capas internas de la red neural. La muestra (por ejemplo, una pieza de 32x32) puede enviarse en una capa de red neural final como una matriz de valores de bytes de r Gb que representan las intensidades de color. En algunas implementaciones, esto puede hacerse a lo largo y/o a lo ancho. La red neural puede iniciar cualquier punto apropiado de la imagen capturada. En algunas implementaciones, empezando aproximadamente en el medio puede tener una ventaja de velocidad en el procesamiento puesto que la pantalla está en el centro de la imagen y los bordes contienen fondo que puede ignorarse.
En algunas implementaciones, el pre-procesamiento puede identificar si la imagen capturada es de calidad pobre. El pre-procesamiento puede realizarse por la red neural (por ejemplo, la primera capa de la red neural), en algunas implementaciones. Por ejemplo, la red neural puede identificar imagen pobre tal como imagen con grano___; imagen borrosa; mal contraste (por ejemplo, oscuro); mal color (por ejemplo, brillo); imagen incorrecta (por ejemplo, no un teléfono cuando se espera un teléfono); obstrucciones tales como dedos, carcasas de teléfono; pantallas parciales, etc.
En algunas implementaciones, la aplicación de retorno (por ejemplo, la red neural de la aplicación de retorno) puede identificar una condición de un dispositivo o porción del mismo como dañada o no dañada. La aplicación de retorno puede identificar el tipo de daño, gravedad de daño, etc. Por ejemplo, la red neural puede entrenarse para identificar el tipo de daño y/o gravedad de daño. La red neural puede calificar la gravedad del daño. Por ejemplo, la salida de la red neural puede proporcionar detalles acerca de la condición tal como agrietada, magullada, píxel atascado, defecto menor, bueno, etc. En algunas implementaciones, la condición y/o salida de la red neural puede proporcionarse en un formato de salida, tal como, pero sin limitación, un número entero sencillo 0-x, binario 000001, y/o porcentajes de esa suma a 1,0.
En algunas implementaciones, la red neural puede tener cero niveles (por ejemplo, antes del procesamiento). En algunas implementaciones, puede facilitarse el procesamiento y/o puede mejorarse la precisión utilizando una red neural con más de un nivel (por ejemplo, que incluye la capa de procesamiento final). La aplicación de retorno puede personalizarse basándose en parámetros deseados. Por ejemplo, identificar imágenes borrosas puede ser más fácil y/o más rápido que determinar una obstrucción y por lo tanto una aplicación de retorno que únicamente pre-procesa para identificar imágenes borrosas puede tener menos capas que una aplicación de retorno que pre-procesa obstrucciones y/u otras calidades de imagen pobre. En algunas implementaciones, el guiado proporcionado por la aplicación de retorno puede permitir mejor captura de imagen y una única capa (por ejemplo, capa final) la red neural puede utilizarse para identificar defectos.
En algunas implementaciones, la aplicación de retorno puede procesar imágenes capturadas de calidad pobre. Por ejemplo, en lugar de excluir las imágenes basándose en color y/o desenfoque puede procesarse una calificación y/o intensidades de color de las partes por la aplicación de retorno. La aplicación de retorno puede inhibir o no el procesamiento de otras partes. Por ejemplo, una calificación puede ser un valor, color y/u otra indicación, tal como la calificación de 0 puede indicar la imagen no está borrosa y una calificación de 255 puede indicar que esta imagen es muy borrosa. La escala de calificación puede ser lineal o no lineal. La aplicación de retorno (por ejemplo, red neural) puede ajustar (por ejemplo, aumentar y/o reducir la sensibilidad) basándose en la calificación. Por ejemplo, la aplicación de retorno puede reducir la sensibilidad/agresividad cuando se identifican grietas en una imagen capturada de calificación de 255. Por lo tanto, puede procesarse un intervalo de imágenes defectuosas y/o puede procesarse aproximadamente de manera precisa basándose en imágenes de calidad inferiores.
En algunas implementaciones, pueden capturarse y/o procesarse otras porciones del dispositivo por la aplicación de retorno según se describe. Por ejemplo, la aplicación de retorno puede facilitar la evaluación de grietas en la carcasa del teléfono móvil (por ejemplo, delantera y/o trasera).
En algunas implementaciones, la determinación de si la pantalla de dispositivo está dañada puede ser una determinación de un grado de daño, si el daño está asociado con una o más categorías de daño (por ejemplo, perfecto, agrietado, rallado, reflejo), la probabilidad de que exista el daño y/o cualquier otra categorización apropiada del daño. Por ejemplo, la determinación de si la pantalla de dispositivo está dañada puede ser una determinación de que la pantalla está agrietada o no agrietada. En algunas implementaciones, la determinación puede producir un resultado entre -1 y 1, por ejemplo, donde valores menores que 0 están asociados con pantallas de dispositivo no agrietadas y valores mayores que 0 están asociados con pantallas de dispositivo agrietadas. Por ejemplo, en algunas implementaciones, el valor puede estar asociado con la probabilidad de que la pantalla de dispositivo está dañada y una pantalla de dispositivo puede identificarse como dañada o agrietada si la probabilidad es mayor que un valor predeterminado. Por ejemplo, si hay mayor que un 90 % de certidumbre de que la pantalla de dispositivo está agrietada (por ejemplo, > .80), el dispositivo y/o la pantalla de dispositivo pueden identificarse como agrietadas. En algunas implementaciones, el análisis puede realizarse para cada parte, un conjunto de partes adyacentes, todas las partes de dispositivo y/o el dispositivo global.
En algunas implementaciones, puede determinarse la ubicación, extensión de daño a la pantalla de dispositivo (por ejemplo, cómo de profundo, en qué capa o capas, etc.), y/o si el daño afecta a otros componentes (por ejemplo, por la red neural del sistema). Por ejemplo, puesto que el daño puede detectarse en partes discretas, en algunas implementaciones, la ubicación aproximada del daño puede determinarse y/o transmitirse al usuario. En algunas implementaciones, la ubicación del daño puede ajustar el precio de base ofrecido para el dispositivo. Por ejemplo, una grieta pequeña en la pantalla que no está en el área activa de la pantalla de dispositivo puede reducir un precio menor que una grieta en el área activa de la pantalla de dispositivo. En algunas implementaciones, puede notificarse al usuario de la ubicación del daño de pantalla. La información puede ayudar a los usuarios a determinar si el daño de pantalla identificado es realmente daño de pantalla o una marca en el dispositivo que puede retirarse. En algunas implementaciones, la extensión del daño puede determinarse para facilitar la identificación de si la pantalla puede repararse o si la sustitución es más apropiada (por ejemplo, cuando se repara un dispositivo).
En algunas implementaciones, puede etiquetarse la ubicación de partes de la pantalla de dispositivo en las que se detecta el daño (por ejemplo, diferente color, patrón, indicaciones y/o cualesquiera otros indicios apropiados). La Figura 8A ilustra una implementación de una imagen capturada de ejemplo de una pantalla de dispositivo. Como se ilustra, la pantalla de dispositivo incluye grietas visibles en la imagen capturada. La imagen capturada se divide en partes y se analizan para determinar si una o más de las partes tiene una probabilidad de daño mayor que una probabilidad predeterminada. En algunas implementaciones, si partes adyacentes incluyen daño puede determinarse si la pantalla de dispositivo y/o partes del mismo tienen daño. El sistema puede identificar partes con daño mayor que una probabilidad predeterminada con una indicación. La Figura 8B ilustra una implementación de una interfaz generada como resultado de una determinación de si está dañada la pantalla de dispositivo ilustrado en la Figura 8A. La interfaz puede generarse y presentarse al usuario (por ejemplo, mediante la aplicación de retorno y/o un sitio web acoplado al servidor). Como se ilustra, las indicaciones más oscuras (por ejemplo, rojo) indican partes identificadas como partes dañadas. El usuario puede visualizar las indicaciones, indicaciones de impugnación que el usuario cree que son partes no dañadas de la pantalla de dispositivo, y/o verificar partes dañadas. La Figura 8C ilustra una implementación de una imagen capturada de ejemplo de una pantalla de dispositivo. Como se ilustra, la pantalla de dispositivo no está dañada. Por lo tanto, cuando se analiza la imagen de la pantalla de dispositivo, no se generan indicaciones. La Figura 8D ilustra una implementación de una interfaz generada como resultado de una determinación de si está dañada la pantalla de dispositivo ilustrada en la Figura 8C. Como se ilustra, la determinación automática de la condición de la pantalla de dispositivo no halló ningún daño y por lo tanto no indicó parte alguna de la pantalla de dispositivo como dañada. Como otro ejemplo, la Figura 8E ilustra una implementación de una imagen capturada de ejemplo de una pantalla de dispositivo. Como se ilustra la pantalla de dispositivo incluye daño. La Figura 8F ilustra una implementación de una interfaz generada como resultado de una determinación de si está dañada la pantalla de dispositivo ilustrada en la Figura 8E. Como resultado de la determinación de la condición de la pantalla de dispositivo, la aplicación de valor puede indicar porciones de la pantalla de dispositivo que están dañadas. Las indicaciones más oscuras (por ejemplo, indicaciones rojas) ilustran partes del dispositivo que se han etiquetado como dañadas por el sistema.
En diversas implementaciones, la determinación de la condición de la pantalla de dispositivo (por ejemplo, si la pantalla de dispositivo está dañada o no dañada) puede usarse para determinar una condición del dispositivo y/o para probar adicionalmente un dispositivo (por ejemplo, de acuerdo con técnicas comúnmente usadas y/o técnicas descritas). Por ejemplo, cuando una pantalla se agrieta próxima a un componente del dispositivo y/o cuando una grieta tiene un tamaño (por ejemplo, profundidad y/o anchura) mayor que un tamaño máximo predeterminado, pueden realizarse pruebas adicionales para determinar si están dañados uno o más componentes (por ejemplo, micrófono, altavoz, capa de pantalla táctil y/o carcasa). Por ejemplo, puede probarse la operación del componente (por ejemplo, automáticamente, semi-automáticamente y/o manualmente). La condición del dispositivo (por ejemplo, los componentes que incluyen la pantalla), datos de mercado, precios de reventa actuales y/u otra información pueden utilizarse para determinar un precio. El precio puede transmitirse al usuario y/o presentarse visualmente mediante la aplicación de retorno. El usuario puede vender el dispositivo basándose en el precio ofrecido en la aplicación de retorno, en algunas implementaciones.
En algunas implementaciones, si se ha realizado una determinación de que una pantalla de dispositivo está dañada, puede realizarse una prueba de pantalla táctil. La prueba de pantalla táctil puede realizarse mediante la aplicación de retorno. Por ejemplo, la aplicación de retorno puede solicitar que un usuario proporcione entrada basándose en instrucciones de la aplicación de retorno, y puede realizarse una determinación con respecto a la condición de la pantalla táctil (por ejemplo, dañada o no dañada, ubicación de daño y/o extensión de daño) basándose en la entrada proporcionada por el usuario. Los resultados de la prueba de pantalla táctil pueden utilizarse para determinar la profundidad del daño a la pantalla de dispositivo y/o daño a uno o más otros componentes del dispositivo.
En algunas implementaciones, un grado de un dispositivo puede estar basado al menos parcialmente en la determinación de si la pantalla de dispositivo está dañada; la ubicación de daño en una pantalla si existe el daño; el tamaño del daño a la pantalla, si existe daño; si uno o más otros componentes del dispositivo están dañados, valor de reventa; valor de reciclado/desguace; y/u otros criterios apropiados. Por ejemplo, si el dispositivo no tiene daño de pantalla el dispositivo puede recibir un primer grado. Si el dispositivo tiene daño de pantalla, un segundo grado, que es inferior al primer grado, puede asignarse al dispositivo. Si un dispositivo tiene daño de pantalla y daño de pantalla táctil, un tercer grado, inferior al segundo grado, puede asignarse al dispositivo. La gradación del dispositivo puede estar asociada con el precio que se ofrece al usuario para venta del dispositivo y/o el precio en el que se revenderá el dispositivo (por ejemplo, en el mercado, a una tercera parte, etc.).
En algunas implementaciones, puesto que la evaluación del daño a una pantalla de dispositivo puede hacerse menos subjetiva (por ejemplo, puesto que el daño puede determinarse automáticamente) y/o de manera consistente (por ejemplo, ubicación y/o tamaño), la evaluación global de un dispositivo puede ser más detallada y/o la gradación puede realizarse a través de más niveles posibles. Puesto que las diferencias menores entre condiciones de un dispositivo pueden ser más consistentes y proporcionarse más rápidamente. Por ejemplo, el daño de pantalla que no solapa con áreas activas de una pantalla puede gradarse como una pantalla dañada pero con una gradación superior que una pantalla con daño en el área activa de la pantalla.
En algunas implementaciones, la imagen o imágenes pueden almacenarse en una memoria del dispositivo y/o en una memoria acoplada al dispositivo (por ejemplo, almacenamiento en la nube y/o memoria del servidor). La aplicación de retorno puede gestionar la carga de la imagen al servidor basándose en la conexión de red del dispositivo (por ejemplo, LTE, Wi-Fi u otra).
En algunas implementaciones, puede verificarse el daño de pantalla por un ser humano (por ejemplo, operador de control de calidad) y esta realimentación puede proporcionarse a la red neural para aumentar la precisión y/o permitir ajustes al análisis proporcionado por la red neural del servidor.
Aunque la condición de pantalla se ha descrito en términos de daño debido a grietas, pueden determinarse también otros daños, tales como daño a píxeles (por ejemplo, rotos, atascados, etc.), magulladuras, etc., mediante la aplicación de retorno. Por ejemplo, la aplicación puede hacer que se presenten visualmente uno o más gráficos en la pantalla de dispositivo y capturarse la imagen del gráfico en la pantalla de dispositivo (por ejemplo, mediante una cámara en el dispositivo). Por ejemplo, el gráfico puede incluir un único color presentado en la pantalla, un gráfico con una diversidad de colores, un gráfico con patrón o patrones y/o un gráfico designado para facilitar el identificador de daño de pantalla. El color presentado en las imágenes puede analizarse (por ejemplo, por la red neural del servidor) para determinar si uno o más píxeles no están presentando el color de manera precisa. En algunas implementaciones, puede usarse una k medias para reconocer características con aproximadamente el mismo color en la imagen. Por lo tanto, puede identificarse el daño a píxeles basándose al menos parcialmente en el análisis de la imagen o imágenes capturadas.
Aunque las implementaciones pueden incluir redes neurales comercialmente disponibles, en algunas implementaciones, la red neural puede ser unas redes neurales personalizadas que pueden aprender patrones, reconocer grietas, asignar una probabilidad de daño existente en un dispositivo, y/u otras funciones apropiadas. En algunas implementaciones, la red neural puede incluir un sistema basado en la nube accesible por la aplicación de retorno. En algunas implementaciones, la red neural puede almacenarse y ser operable en el dispositivo.
En algunas implementaciones, la red neural puede entrenarse usando herramientas de aprendizaje que permiten que la red neural aprenda cómo identificar una condición de una pantalla de un dispositivo. Las Figuras 9A, 10A, y 11A ilustran implementaciones de herramientas de aprendizaje y las Figuras 9B, 10B, y 11B ilustran segundas imágenes asociadas. Las Figuras 9C, 10C y 11C ilustran ejemplos de procesamiento de las segundas imágenes por la red neural, y las Figuras 12A-12B ilustran ejemplos de la precisión y la entropía cruzada conseguida por la red neural. La red neural puede incluir cero o más capas. En algunas implementaciones, la red neural puede ser de múltiples capas para facilitar el procesamiento e identificación de una condición de una pantalla de un dispositivo de imágenes capturadas. La red neural puede entrenarse proporcionando imágenes de ejemplo tales como las imágenes capturadas de ejemplo ilustradas en las Figuras 9B-11B y correspondientes imágenes de ejemplo en las que se identifica el daño, como se ilustra en las Figuras 9A-11A. Como se ilustra en las Figuras 9B-11B, se identifica el daño (por ejemplo, por un color y/o patrón diferente). La red neural puede procesar las imágenes capturada de ejemplo, tales como las imágenes 9B-11B de acuerdo con una o más de las operaciones descritas. Por ejemplo, las imágenes capturadas pueden dividirse en partes y puede realizarse una determinación por la red neural de cuál de las partes incluye daño. Este resultado puede compararse a las herramientas de aprendizaje de manera que la red neural puede aprender y volverse más precisa, como se ilustra en las Figuras 12A-12B.
Aunque se han descrito espejos proporcionando la superficie reflectante para reflejar la imagen presentada en la pantalla de dispositivo, puede usarse cualquier superficie reflectante en lugar de y/o en conjunto con un espejo. Por ejemplo, puede usarse una pieza reflectante de metal para capturar imágenes de una pantalla de dispositivo y/o una pieza reflectante de plástico.
Aunque se han descrito usuarios como humanos, un usuario puede ser una persona, un grupo de personas, una persona o personas que interactúan con uno o más ordenadores, y/o un sistema informático (por ejemplo, dispositivo, un robot).
En diversas implementaciones, se ha descrito un dispositivo. El dispositivo puede ser cualquier dispositivo apropiado, tal como un teléfono inteligente, tableta, portátil, consola de juegos, reproductor de medios portátil (por ejemplo, lector electrónico y/o reproductor de vídeo), llevables (por ejemplo, relojes, joyería, etc.), y/o cámara de vídeo que puede ejecutar la aplicación y/o tomar fotos del dispositivo. El dispositivo puede incluir memoria, un procesador y cámara (por ejemplo, componente que puede capturar imágenes). El dispositivo puede almacenar la aplicación de retorno en una memoria y el procesador puede ejecutar la aplicación de retorno para realizar una o más de las operaciones descritas. En algunas implementaciones, el dispositivo puede realizar una o más de las operaciones descritas según se realizan por el servidor en lugar de o en conjunto con el servidor.
En diversas implementaciones, se ha descrito un servidor. El servidor 110 puede incluir una memoria y un procesador que ejecuta instrucciones y manipula datos para realizar operaciones de servidor. El servidor puede estar basado en la nube y/o soportar procesamiento y almacenamiento basado en la nube, en algunas implementaciones. Como se describe, una red neural puede almacenarse en una memoria del servidor y el procesador puede realizar las funciones de la red neural. La memoria puede incluir un repositorio (por ejemplo, una base de datos) de datos. Los datos pueden incluir datos para enseñar y/o establecer la red neural (por ejemplo, conjuntos de imágenes, realimentación con respecto a daño identificado correcta y/o incorrectamente, patrones, etc.), precios de reventa, precios para ofrecer por dispositivos, costes de reparación y/o sustitución de pantalla, posición predeterminada para información de captura de imagen, información de mercado, información de reutilización, información de aseguración, información para verificar la identidad de dispositivos y/o cualquier otra información apropiada.
Además, puede almacenarse diverso software en memoria del servidor. Por ejemplo, el software puede comunicarse con dispositivos, realizando una o más operaciones de determinación de la condición de la pantalla de dispositivo, realizar pruebas en uno o más componentes del dispositivo, etc. En diversas implementaciones, una o más de las imágenes capturadas pueden almacenarse en una memoria del dispositivo o servidor y/o transmitirse (por ejemplo, de un dispositivo de usuario al servidor y/o viceversa).
El software en el servidor y/o la aplicación de retorno pueden incluir una interfaz gráfica que facilita la interacción con un usuario. Una interfaz de comunicación puede permitir que el servidor se comunique con otros repositorios y/o dispositivos mediante una red. La interfaz de comunicación puede transmitir datos a y/o desde el servidor y/o datos recibidos de dispositivos y/o repositorios acoplados y/u otros sistemas informáticos mediante protocolos de red (por ejemplo, TCP/IP, Bluetooth, y/o Wi-Fi) y/o un bus (por ejemplo, serie, paralelo, USB, y/o FireWire).
Una interfaz de usuario gráfica (GUI) del servidor y/o aplicación de retorno puede visualizarse en una interfaz de presentación, tal como una pantalla, del dispositivo. La GUI puede ser operable para permitir que el usuario del dispositivo interactúe con repositorios y/o el servidor. En general, la GUI proporciona al usuario del dispositivo con una presentación eficaz y fácil de usar de datos proporcionados por el servidor y/o la aplicación de retorno. La GUI puede incluir una pluralidad de visualizadores que tienen campos interactivos, listas desplegables y botones operados por el usuario. Como un ejemplo, la GUI presenta una interfaz de tipo de exploración y recibe comandos del usuario. Debería entenderse que la expresión interfaz de usuario gráfica puede usarse en singular o en plural para describir una o más interfaces de usuario gráficas en cada uno de los visualizadores de una interfaz de usuario gráfica particular. Además, la GUI contempla cualquier interfaz de usuario gráfica, tal como un explorador web genérico, que procesa información en el servidor y/o dispositivo y presenta eficazmente la información al usuario. En algunas implementaciones, la GUI puede presentar una página web que embebe contenido de la aplicación de retorno y/o servidor. El servidor puede aceptar datos del dispositivo mediante un explorador web (por ejemplo, Microsoft Internet Explorer o Safari) y devolver las respuestas apropiadas del Lenguaje de Marcas de Hiper Texto (HTML) o del Lenguaje de Marcas Extensible (XML).
Aunque la Figura 1 proporciona un ejemplo de servidor que puede usarse con la divulgación, el servidor puede implementarse usando ordenadores distintos de servidores, así como un grupo de servidores. Por ejemplo, el servidor puede incluir un ordenador personal (PC) de fin general, un Macintosh, una estación de trabajo, un ordenador basado en UNIX, un ordenador de servidor, o cualquier otro dispositivo adecuado. De acuerdo con una implementación, el servidor puede incluir un servidor web y/o servidor basado en la nube. El servidor puede adaptarse para ejecutar cualquier sistema operativo que incluye UNIX, Linux, Windows, o cualquier otro sistema operativo adecuado. En resumen, el servidor puede incluir software y/o hardware en cualquier combinación adecuada para proporcionar acceso a datos y/o traducir datos a un formato compatible apropiado.
Aunque las implementaciones describen un único procesador en servidores y/o dispositivos, pueden usarse múltiples procesadores de acuerdo con necesidades particulares, y la referencia al procesador se pretende que incluya múltiples procesadores donde sea apropiado. El procesador puede incluir un dispositivo de lógica programable, un microprocesador, o cualquier otro dispositivo apropiado para manipular la información de una manera lógica.
Aunque las implementaciones analizan el uso de redes neurales para realizar al menos una porción del análisis de la aplicación de retorno, pueden utilizarse otras estructuras de análisis implementadas por dispositivo informático, según sea apropiado. Las implementaciones describen la red neural como que está incluida en el servidor o servidores (por ejemplo, servidores físicos y/o servidores virtuales), sin embargo, la red neural puede alojarse en otros dispositivos. Por ejemplo, la red neural puede ejecutarse y/o ejecutarse al menos parcialmente en dispositivos de usuario, tales como un primer dispositivo y/o segundo dispositivo tal como un dispositivo móvil. La red neural puede estar basada en la nube y accederse por el servidor y/o dispositivos de usuario (por ejemplo, primer y/o segundo dispositivo), en algunas implementaciones.
Aunque las implementaciones describen una memoria única del servidor y/o dispositivos, pueden usarse múltiples memorias según sea apropiado. Por ejemplo, una memoria puede incluir bases de datos de SQL, bases de datos relacionales, bases de datos orientadas a objetos, bases de datos distribuidas, bases de datos de XML, memoria basada en la nube, memoria de dispositivo y/o repositorios de servidor web. Adicionalmente, la memoria puede incluir una o más formas de memoria tales como memoria volátil (por ejemplo, RAM) o memoria no volátil, tal como memoria de sólo lectura (ROM), memoria óptica (por ejemplo, CD, DVD o l D), memoria magnética (por ejemplo, unidades de disco duro, unidades de disco flexible), memoria flash NAND, memoria flash NOR, memoria de sólo lectura programable eléctricamente borrable (EEPROM), memoria de acceso aleatorio ferroeléctrica (FeRAM), memoria de acceso aleatorio magnetoresisitiva (MRAM), memoria de acceso aleatorio no volátil (NVRAM), memoria de acceso aleatorio estática no volátil (nvSRAM), y/o memoria de cambio de fase (PRAM).
Ha de entenderse que las implementaciones no están limitadas a sistemas o procedimientos particulares descritos que, por supuesto, pueden variar. Ha de entenderse también que la terminología usada en el presente documento es para el fin de describir implementaciones particulares únicamente, y no se pretende que sea limitante. Como se usa en esta memoria descriptiva, las formas singulares "un", "una" y "el/la" incluyen referentes plurales a menos que el contenido indique claramente lo contrario. Por lo tanto, por ejemplo, la referencia a "una imagen" incluye una combinación de dos o más imágenes y la referencia a "un gráfico" incluye diferentes tipos y/o combinaciones de gráficos.
Aunque la presente divulgación se ha descrito en detalle, debería entenderse que pueden realizarse diversos cambios, sustituciones y modificaciones en el presente documento sin alejarse del espíritu y ámbito de la divulgación como se define por las reivindicaciones adjuntas. Además, el ámbito de la presente solicitud no se pretende que esté limitado a las realizaciones particulares del procedimiento, máquina, fabricación, composición de materia, medios, procedimientos y etapas descritas en la memoria descriptiva. Como un experto en la materia apreciará fácilmente a partir de la divulgación, procedimientos, máquinas, fabricación, composiciones de materia, medios, o etapas, actualmente existentes o que van a desarrollarse más adelante que realizan sustancialmente la misma función o consiguen sustancialmente el mismo resultado que las correspondientes realizaciones descritas en el presente documento pueden utilizarse de acuerdo con la presente divulgación. Por consiguiente, las reivindicaciones adjuntas se pretende que incluyan dentro de su ámbito tales procedimientos, máquinas, fabricación, composiciones de materia, medios o etapas.

Claims (12)

REIVINDICACIONES
1. Un procedimiento para identificar una condición de una o más pantallas de un dispositivo electrónico, comprendiendo el procedimiento:
recibir una solicitud para evaluación de una condición de una pantalla de un primer dispositivo o porción del mismo mediante una aplicación de retorno en el primer dispositivo;
permitir la representación de un primer gráfico en la pantalla del primer dispositivo, en el que el primer gráfico comprende un primer código de identificación;
capturar al menos una porción de una primera imagen del primer gráfico mediante una cámara del primer dispositivo, en el que la primera imagen comprende un reflejo del primer gráfico en una superficie reflectante; permitir la presentación de uno o más segundos gráficos en la pantalla del primer dispositivo;
capturar al menos una porción de una o más segundas imágenes de al menos uno de los segundos gráficos mediante una cámara del primer dispositivo, en el que cada una de las segundas imágenes comprende un reflejo de al menos uno de los segundos gráficos en la superficie reflectante;
procesar una o más de las segundas imágenes para determinar una condición de la pantalla del primer dispositivo, en el que el procesamiento de una de las segundas imágenes comprende:
dividir la segunda imagen en partes;
determinar si una o más de las partes de la segunda imagen incluyen daño;
identificar partes adyacentes a una o más de las partes que incluyen daño; y
determinar una condición de la pantalla del primer dispositivo basándose en si una o más de las partes de una o más de las segundas imágenes se determina que incluyen daño y si una o más de las partes adyacentes a una de las partes determinadas que incluye daño también incluyen daño.
2. El procedimiento de la reivindicación 1, que comprende adicionalmente verificar una identidad de un primer dispositivo basándose en un análisis del primer código de identificación.
3. El procedimiento de las reivindicaciones 1 o 2, en el que la captura de al menos una porción de una o más segundas imágenes de al menos uno de los segundos gráficos comprende:
determinar una orientación del dispositivo basándose en la imagen capturada del primer gráfico; y proporcionar guiado para ajustar una orientación del dispositivo basándose en la orientación determinada.
4. El procedimiento de la reivindicación 3, que comprende adicionalmente capturar al menos una porción de una imagen adicional del primer gráfico mediante la cámara del primer dispositivo.
5. El procedimiento de la reivindicación 3, que comprende adicionalmente:
determinar una orientación del dispositivo basándose en la imagen capturada del primer gráfico; proporcionar guiado para ajustar una orientación del dispositivo basándose en la orientación determinada; capturar al menos una porción de una o más imágenes adicionales de al menos uno de los segundos gráficos mediante la cámara del primer dispositivo, en el que cada una de las imágenes adicionales comprende un reflejo de al menos uno de los segundos gráficos en la superficie de reflectante.
6. El procedimiento de la reivindicación 3, que comprende adicionalmente determinar que al menos una de la primera imagen capturada o una o más de las segundas imágenes capturadas no es una imagen procesable; y permitir que el primer dispositivo se reoriente para capturar una imagen procesable:
determinando una orientación del dispositivo basándose en la primera imagen capturada o una o más de las segundas imágenes capturadas; y
proporcionando guiado para ajustar una orientación del dispositivo basándose en la orientación determinada.
7. El procedimiento de las reivindicaciones 1 o 2, que comprende adicionalmente etiquetar una o más de las segundas imágenes capturadas con al menos una porción de la primera imagen capturada.
8. El procedimiento de las reivindicaciones 1 o 2, que comprende adicionalmente restringir uno o más procedimientos del primer dispositivo.
9. El procedimiento de la reivindicación 1 o 2, en el que la identificación de una pantalla o porción de la misma del primer dispositivo en la segunda imagen comprende utilizar al menos una de detección de esquina o detección de borde para identificar una pantalla del primer dispositivo en la segunda imagen.
10. El procedimiento de la reivindicación 1 o 2, en el que el procesamiento de una de las segundas imágenes comprende:
identificar la pantalla o porción de la misma del primer dispositivo en la segunda imagen;
generar una tercera imagen en la que porciones de la segunda imagen que no se han identificado como una pantalla o porción de la misma en la segunda imagen están restringidas de la inclusión en la tercera imagen; dividir la tercera imagen en partes;
determinar si una o más de las partes de la tercera imagen incluyen daño; e
identificar partes adyacentes a una o más de las partes que incluyen daño;
en el que la determinación de una condición de la pantalla del primer dispositivo es basándose en si una o más de las partes de una o más de las terceras imágenes se determina que incluyen daño y si una o más de las partes adyacentes incluyen daño.
11. El procedimiento de la reivindicación 10, en el que la generación de una tercera imagen comprende modificar la segunda imagen de manera que se retiran porciones de la segunda imagen que no se identifican como la pantalla o porción de la misma.
12. El procedimiento de la reivindicación 10, en el que la identificación de una pantalla o porción de la misma comprende la identificación del área activa de la pantalla del primer dispositivo.
ES17763941T 2016-03-07 2017-03-07 Detección de daño de pantalla para dispositivos Active ES2819699T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662304729P 2016-03-07 2016-03-07
PCT/US2017/021223 WO2017156046A1 (en) 2016-03-07 2017-03-07 Screen damage detection for devices

Publications (1)

Publication Number Publication Date
ES2819699T3 true ES2819699T3 (es) 2021-04-19

Family

ID=59723635

Family Applications (3)

Application Number Title Priority Date Filing Date
ES19173269T Active ES2820230T3 (es) 2016-03-07 2017-03-07 Detección de daño de pantalla para dispositivos
ES20176606T Active ES2912577T3 (es) 2016-03-07 2017-03-07 Detección de daños en la pantalla para dispositivos
ES17763941T Active ES2819699T3 (es) 2016-03-07 2017-03-07 Detección de daño de pantalla para dispositivos

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES19173269T Active ES2820230T3 (es) 2016-03-07 2017-03-07 Detección de daño de pantalla para dispositivos
ES20176606T Active ES2912577T3 (es) 2016-03-07 2017-03-07 Detección de daños en la pantalla para dispositivos

Country Status (6)

Country Link
US (2) US10332249B2 (es)
EP (4) EP4036852A1 (es)
JP (4) JP6754843B2 (es)
CA (1) CA3016367C (es)
ES (3) ES2820230T3 (es)
WO (1) WO2017156046A1 (es)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11574396B2 (en) * 2020-03-04 2023-02-07 Nhk Spring Co., Ltd. Inspection method of examination system and examination system
US11704887B2 (en) 2019-09-16 2023-07-18 Assurant, Inc. System, method, apparatus, and computer program product for utilizing machine learning to process an image of a mobile device to determine a mobile device integrity status
US12045973B2 (en) 2023-01-12 2024-07-23 Assurant, Inc. Systems and methods for automatically grading pre-owned electronic devices

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10445708B2 (en) 2014-10-03 2019-10-15 Ecoatm, Llc System for electrically testing mobile devices at a consumer-operated kiosk, and associated devices and methods
EP3213280B1 (en) 2014-10-31 2021-08-18 ecoATM, LLC Systems and methods for recycling consumer electronic devices
US20170270613A1 (en) * 2016-03-15 2017-09-21 Technology Enhanced Claims Handling, Inc. Agent dispatch system
EP3449374B1 (en) 2016-04-28 2024-05-29 Yougetitback Limited Systems and methods for detection of mobile device fault conditions
US11210777B2 (en) * 2016-04-28 2021-12-28 Blancco Technology Group IP Oy System and method for detection of mobile device fault conditions
US10269110B2 (en) 2016-06-28 2019-04-23 Ecoatm, Llc Methods and systems for detecting cracks in illuminated electronic device screens
US11032471B2 (en) 2016-06-30 2021-06-08 Nokia Technologies Oy Method and apparatus for providing a visual indication of a point of interest outside of a user's view
US20210264528A1 (en) 2017-02-24 2021-08-26 State Farm Mutual Automobile Insurance Company Technology for analyzing image data to automatically manage customer policies
US10559283B2 (en) * 2017-03-20 2020-02-11 Paypal, Inc. Automated user device damage remediation
US10540489B2 (en) * 2017-07-19 2020-01-21 Sony Corporation Authentication using multiple images of user from different angles
CN107422915B (zh) * 2017-07-26 2019-05-28 Oppo广东移动通信有限公司 触摸屏的响应控制方法、装置、存储介质及终端
US20190236416A1 (en) * 2018-01-31 2019-08-01 Microsoft Technology Licensing, Llc Artificial intelligence system utilizing microphone array and fisheye camera
US12013346B2 (en) 2018-02-19 2024-06-18 Blancco Technology Group IP Oy System and method for detection of mobile device fault conditions
US11734477B2 (en) * 2018-03-08 2023-08-22 Concurrent Technologies Corporation Location-based VR topological extrusion apparatus
CN108921811B (zh) * 2018-04-03 2020-06-30 阿里巴巴集团控股有限公司 检测物品损伤的方法和装置、物品损伤检测器
US11790453B2 (en) * 2018-05-04 2023-10-17 Assurant, Inc. Systems and methods for generating contextually relevant device protections
US20190340693A1 (en) * 2018-05-04 2019-11-07 Hyla, Inc. Systems and methods for generating contextually relevant device protections
CN108805270B (zh) * 2018-05-08 2021-02-12 华中科技大学 一种基于存储器的卷积神经网络系统
US11050278B1 (en) 2018-06-08 2021-06-29 Confinement Telephony Technology, Llc Methods and systems for charging and monitoring electronic devices in confinement institutions
US11645029B2 (en) 2018-07-12 2023-05-09 Manufacturing Resources International, Inc. Systems and methods for remotely monitoring electronic displays
US10908863B2 (en) 2018-07-12 2021-02-02 Manufacturing Resources International, Inc. System and method for providing access to co-located operations data for an electronic display
JP6578607B1 (ja) * 2018-07-18 2019-09-25 ゼアーウィンスリーサービス株式会社 タイヤパンク修理判定システム、タイヤパンクの保証申請の可否を判断する装置及び、タイヤパンクの保証申請の可否を判断する装置の作動方法
EP3867809A4 (en) * 2018-10-15 2022-07-06 Gauss Surgical, Inc. IMAGE PROCESSING METHODS AND SYSTEMS
CN113167742B (zh) * 2018-11-29 2024-02-27 富士胶片株式会社 混凝土构造物的点检辅助装置、点检辅助方法及记录介质
JP7352615B2 (ja) 2018-12-19 2023-09-28 エコエーティーエム, エルエルシー 携帯電話および他の電子デバイスを販売および/または購入するためのシステムおよび方法
US11741763B2 (en) * 2018-12-26 2023-08-29 Allstate Insurance Company Systems and methods for system generated damage analysis
WO2020167846A1 (en) 2019-02-12 2020-08-20 Ecoatm, Llc Kiosk for evaluating and purchasing used electronic devices
EP3924917A1 (en) 2019-02-12 2021-12-22 ecoATM, LLC Connector carrier for electronic device kiosk
KR20210127199A (ko) 2019-02-18 2021-10-21 에코에이티엠, 엘엘씨 전자 디바이스의 신경망 기반의 물리적 상태 평가, 및 관련된 시스템 및 방법
US11402940B2 (en) 2019-02-25 2022-08-02 Manufacturing Resources International, Inc. Monitoring the status of a touchscreen
US11137847B2 (en) 2019-02-25 2021-10-05 Manufacturing Resources International, Inc. Monitoring the status of a touchscreen
US11875796B2 (en) 2019-04-30 2024-01-16 Microsoft Technology Licensing, Llc Audio-visual diarization to identify meeting attendees
US10812921B1 (en) 2019-04-30 2020-10-20 Microsoft Technology Licensing, Llc Audio stream processing for distributed device meeting
US11216687B2 (en) * 2019-05-15 2022-01-04 Getac Technology Corporation Image detection scanning method for object surface defects and image detection scanning system thereof
WO2020234634A1 (en) * 2019-05-21 2020-11-26 Service Lee Technologies Pvt., Ltd. Cracked screen detection system and method
DE102019209019A1 (de) * 2019-06-21 2020-12-24 Robert Bosch Gmbh Vorrichtung und Verfahren zur Bildverarbeitung
US10607331B1 (en) * 2019-06-28 2020-03-31 Corning Incorporated Image segmentation into overlapping tiles
CN110376217B (zh) * 2019-07-24 2021-12-21 千享科技(北京)有限公司 一种电子设备显示屏损伤的主动检测方法及系统
US20210056559A1 (en) * 2019-08-24 2021-02-25 Eli Altaras Digital device warranty method and devices
WO2021081256A1 (en) * 2019-10-22 2021-04-29 Blancco Technology Group IP Oy System and method for mobile device display and housing diagnostics
CN110827249A (zh) * 2019-10-28 2020-02-21 上海悦易网络信息技术有限公司 电子设备背板外观瑕疵检测方法及设备
CN113127272B (zh) * 2019-12-31 2024-05-14 华为技术有限公司 屏幕检测方法和屏幕检测的电子设备
CN111175318A (zh) * 2020-01-21 2020-05-19 上海悦易网络信息技术有限公司 屏幕划痕碎裂检测方法及设备
WO2021149068A1 (en) * 2020-01-23 2021-07-29 Service Lee Technologies Pvt. Ltd. Process and system for detecting cracks on back panel of an electronic device
CN111476759B (zh) * 2020-03-13 2022-03-25 深圳市鑫信腾机器人科技有限公司 一种屏幕表面检测方法、装置、终端及存储介质
JP6811500B1 (ja) * 2020-05-07 2021-01-13 株式会社トライグル 情報処理装置およびプログラム
JP2021197257A (ja) * 2020-06-12 2021-12-27 株式会社日立ハイテク 荷電粒子ビーム装置
JP7511882B2 (ja) 2020-08-04 2024-07-08 国立大学法人東京工業大学 電子機器画面部のグレード判定方法及びシステム
US11922467B2 (en) 2020-08-17 2024-03-05 ecoATM, Inc. Evaluating an electronic device using optical character recognition
JP6932364B1 (ja) * 2020-08-17 2021-09-08 Assest株式会社 買取価格推定プログラム
WO2022040668A1 (en) 2020-08-17 2022-02-24 Ecoatm, Llc Evaluating an electronic device using optical character recognition
CN112116574A (zh) * 2020-09-16 2020-12-22 北京小米移动软件有限公司 屏幕修复方法、装置以及存储介质
US11836912B2 (en) * 2020-09-22 2023-12-05 Future Dial, Inc. Grading cosmetic appearance of a test object based on multi-region determination of cosmetic defects
US11900581B2 (en) 2020-09-22 2024-02-13 Future Dial, Inc. Cosmetic inspection system
CN112268912A (zh) * 2020-10-09 2021-01-26 支付宝(杭州)信息技术有限公司 基于镜面拍摄的屏幕损伤验证方法和装置
US11176516B1 (en) * 2020-12-21 2021-11-16 Coupang Corp. Systems and methods for automated information collection and processing
CN112597931B (zh) * 2020-12-28 2024-06-18 京东科技控股股份有限公司 屏幕状态检测方法、装置、电子设备、服务器和存储介质
US11941792B2 (en) * 2021-04-09 2024-03-26 Dell Products L.P. Machine learning-based analysis of computing device images included in requests to service computing devices
CN113360329A (zh) * 2021-06-15 2021-09-07 读书郎教育科技有限公司 一种检测Android终端花屏和闪屏的装置及方法
US20230011330A1 (en) * 2021-07-09 2023-01-12 At&T Intellectual Property I, L.P. Device condition determination
CN113537218B (zh) * 2021-07-27 2024-02-06 京东科技信息技术有限公司 图像识别方法及其装置
US11921010B2 (en) 2021-07-28 2024-03-05 Manufacturing Resources International, Inc. Display assemblies with differential pressure sensors
US11965804B2 (en) 2021-07-28 2024-04-23 Manufacturing Resources International, Inc. Display assemblies with differential pressure sensors
CN113783996B (zh) * 2021-08-17 2023-01-17 咪咕文化科技有限公司 屏幕缺陷优化方法、装置、设备及计算机存储介质
US20230188998A1 (en) 2021-12-09 2023-06-15 Assurant, Inc. Remote verification of the condition of a mobile device
US11972672B1 (en) 2022-10-26 2024-04-30 Manufacturing Resources International, Inc. Display assemblies providing open and unlatched alerts, systems and methods for the same

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01112382A (ja) * 1987-10-26 1989-05-01 Komatsu Ltd ひびわれ画像データ処理方法
JP3297950B2 (ja) * 1993-07-13 2002-07-02 シャープ株式会社 平面型表示パネル検査装置
JP3343444B2 (ja) * 1994-07-14 2002-11-11 株式会社アドバンテスト Lcdパネル画質検査装置及びlcd画像プリサンプリング方法
JPWO2001041068A1 (ja) * 1999-11-29 2004-01-08 オリンパス光学工業株式会社 欠陥検査システム
JP4479877B2 (ja) * 2003-02-20 2010-06-09 谷電機工業株式会社 画像認識による不良検査方法
KR20060044032A (ko) * 2004-11-11 2006-05-16 삼성전자주식회사 표시패널용 검사 장치 및 이의 검사 방법
JP2009032112A (ja) * 2007-07-27 2009-02-12 Kitami Information Technology Co Ltd 携帯端末を用いた付帯情報管理方法及び管理システム
US20100053604A1 (en) * 2008-08-31 2010-03-04 Paul Rice Broken screen detector
JP2010066186A (ja) * 2008-09-12 2010-03-25 Olympus Corp 検査装置および検査方法
US8200533B2 (en) * 2008-10-02 2012-06-12 ecoATM, Inc. Apparatus and method for recycling mobile phones
US20150066677A1 (en) * 2008-10-02 2015-03-05 ecoATM, Inc. Pre-Acquisition Auction For Recycled Electronic Devices
US20130144797A1 (en) * 2008-10-02 2013-06-06 ecoATM, Inc. Method And Apparatus For Recycling Electronic Devices
KR20130072213A (ko) * 2010-05-19 2013-07-01 가부시키가이샤 니콘 형상 측정 장치 및 형상 측정 방법
JP5496016B2 (ja) * 2010-08-19 2014-05-21 京セラ株式会社 入力装置
JP2013114049A (ja) * 2011-11-29 2013-06-10 Sharp Corp 画像表示端末ならびに画像表示端末を制御するための方法およびプログラム
CN104067600B (zh) * 2012-02-01 2017-05-03 埃科亚特姆公司 用于回收电子设备的方法与装置
US20140253494A1 (en) * 2013-03-11 2014-09-11 Motorola Mobility Llc Method and device for detecting display damage and reconfiguring presentation data and actuation elements
US9488589B2 (en) * 2013-10-29 2016-11-08 The Boeing Company Mapping damaged regions on objects
US20150330910A1 (en) * 2014-04-25 2015-11-19 Gdt, Inc. Cosmetic Evaluation Box for Used Electronics
US20160019685A1 (en) * 2014-07-21 2016-01-21 Tu Nguyen Method for Performing a Cosmetic Evaluation of a Used Electronic Device
KR102271433B1 (ko) * 2014-08-22 2021-07-01 엘지전자 주식회사 자가진단시스템 및 디스플레이 디바이스의 자가진단 방법
US9703325B2 (en) * 2015-08-12 2017-07-11 Apple Inc. Coverglass fracture detection
US11850631B2 (en) * 2015-08-31 2023-12-26 Helmerich & Payne Technologies, Llc System and method for estimating damage to a shaker table screen using computer vision
US10001878B2 (en) * 2016-02-04 2018-06-19 Motorola Mobility Llc Method and device for detecting fascia damage and repairing the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11704887B2 (en) 2019-09-16 2023-07-18 Assurant, Inc. System, method, apparatus, and computer program product for utilizing machine learning to process an image of a mobile device to determine a mobile device integrity status
US11574396B2 (en) * 2020-03-04 2023-02-07 Nhk Spring Co., Ltd. Inspection method of examination system and examination system
US12045973B2 (en) 2023-01-12 2024-07-23 Assurant, Inc. Systems and methods for automatically grading pre-owned electronic devices

Also Published As

Publication number Publication date
EP3731157A1 (en) 2020-10-28
US10810732B2 (en) 2020-10-20
US20170256051A1 (en) 2017-09-07
EP3731157B1 (en) 2022-04-27
WO2017156046A1 (en) 2017-09-14
EP3540690A1 (en) 2019-09-18
US10332249B2 (en) 2019-06-25
CA3016367C (en) 2021-11-23
US20190266720A1 (en) 2019-08-29
ES2820230T3 (es) 2021-04-20
EP3427198A1 (en) 2019-01-16
JP2019513262A (ja) 2019-05-23
EP3427198A4 (en) 2019-08-28
JP2020126661A (ja) 2020-08-20
EP4036852A1 (en) 2022-08-03
JP2021185510A (ja) 2021-12-09
JP7417793B2 (ja) 2024-01-19
JP6934082B2 (ja) 2021-09-08
ES2912577T3 (es) 2022-05-26
JP2023156332A (ja) 2023-10-24
JP6754843B2 (ja) 2020-09-16
EP3540690B1 (en) 2020-07-08
CA3016367A1 (en) 2017-09-14
EP3427198B1 (en) 2020-07-08

Similar Documents

Publication Publication Date Title
ES2819699T3 (es) Detección de daño de pantalla para dispositivos
US11210777B2 (en) System and method for detection of mobile device fault conditions
US11687900B2 (en) Kiosks for remote collection of electronic devices for value, and associated mobile application for enhanced diagnostics and services
JP7253503B2 (ja) モバイル・デバイス障害状態の検出のためのシステムおよび方法
US20210152550A1 (en) Machine learning for document authentication
US9232143B2 (en) Method and system for assistive photography
US9881209B2 (en) Methods and systems for detecting tampering in a document image
US12013346B2 (en) System and method for detection of mobile device fault conditions
US9659206B2 (en) Station for acquiring biometric and biographic data
WO2013179250A1 (en) Article authentication apparatus having a built-in light emitting device and camera
US20240012891A1 (en) Information acquisition system, information acquisition method, and storage medium
US20240013246A1 (en) Portable evaluation device, associated systems and methods
US20180097990A1 (en) System and method for stencil based assistive photography
JP2017188022A (ja) 画像処理装置、画像処理方法及びプログラム
CN116306732A (zh) 一种适用于近眼显示设备的图形码识别方法及相关装置