Aprendizaxe profunda para a avaliación da calidade da imaxe da anxiografía por tomografía de coherencia óptica

Grazas por visitar Nature.com.Estás a usar unha versión do navegador con soporte CSS limitado.Para obter a mellor experiencia, recomendámosche que utilices un navegador actualizado (ou que desactives o modo de compatibilidade en Internet Explorer).Ademais, para garantir o apoio continuo, mostramos o sitio sen estilos e JavaScript.
Control deslizante que mostra tres artigos por diapositiva.Usa os botóns atrás e seguinte para moverte polas diapositivas ou os botóns do controlador de diapositivas ao final para moverte por cada diapositiva.
A anxiografía tomográfica de coherencia óptica (OCTA) é un novo método para a visualización non invasiva dos vasos da retina.Aínda que OCTA ten moitas aplicacións clínicas prometedoras, determinar a calidade da imaxe segue sendo un desafío.Desenvolvemos un sistema baseado na aprendizaxe profunda utilizando o clasificador de redes neuronais ResNet152 adestrado previamente con ImageNet para clasificar imaxes do plexo capilar superficial de 347 exploracións de 134 pacientes.As imaxes tamén foron avaliadas manualmente como verdadeiras por dous avaliadores independentes para un modelo de aprendizaxe supervisada.Dado que os requisitos de calidade da imaxe poden variar dependendo da configuración clínica ou de investigación, adestraron dous modelos, un para o recoñecemento de imaxes de alta calidade e o outro para o recoñecemento de imaxes de baixa calidade.O noso modelo de rede neuronal mostra unha excelente área baixo a curva (AUC), IC 95% 0,96-0,99, \(\kappa\) = 0,81), que é significativamente mellor que o nivel de sinal informado pola máquina (AUC = 0,82, 95). % CI).0,77–0,86, \(\kappa\) = 0,52 e AUC = 0,78, IC do 95% 0,73–0,83, \(\kappa\) = 0,27, respectivamente).O noso estudo demostra que os métodos de aprendizaxe automática poden usarse para desenvolver métodos de control de calidade flexibles e robustos para imaxes OCTA.
A anxiografía tomográfica de coherencia óptica (OCTA) é unha técnica relativamente nova baseada na tomografía de coherencia óptica (OCT) que se pode usar para a visualización non invasiva da microvasculatura da retina.OCTA mide a diferenza nos patróns de reflexión dos pulsos de luz repetidos na mesma área da retina, e entón pódense calcular reconstrucións para revelar vasos sanguíneos sen o uso invasivo de colorantes ou outros axentes de contraste.OCTA tamén permite imaxes vasculares de resolución en profundidade, o que permite aos médicos examinar por separado as capas de vasos superficiais e profundas, axudando a diferenciar as enfermidades coriorretinianas.
Aínda que esta técnica é prometedora, a variación da calidade da imaxe segue sendo un gran desafío para a análise fiable de imaxes, o que dificulta a interpretación da imaxe e impide a súa adopción clínica xeneralizada.Dado que OCTA utiliza varias exploracións OCT consecutivas, é máis sensible aos artefactos de imaxe que o OCT estándar.A maioría das plataformas comerciais OCTA proporcionan a súa propia métrica de calidade de imaxe chamada Signal Strength (SS) ou ás veces Signal Strength Index (SSI).Non obstante, as imaxes cun alto valor SS ou SSI non garanten a ausencia de artefactos de imaxe, que poden afectar a calquera análise de imaxe posterior e levar a decisións clínicas incorrectas.Os artefactos de imaxe comúns que poden ocorrer na imaxe OCTA inclúen artefactos de movemento, artefactos de segmentación, artefactos de opacidade de medios e artefactos de proxección1,2,3.
Dado que as medidas derivadas de OCTA, como a densidade vascular, son cada vez máis utilizadas na investigación traslacional, ensaios clínicos e práctica clínica, hai unha necesidade urxente de desenvolver procesos de control da calidade da imaxe robustos e fiables para eliminar os artefactos de imaxe4.As conexións de omisión, tamén coñecidas como conexións residuais, son proxeccións na arquitectura de redes neuronais que permiten que a información elude as capas convolucionais mentres almacena información a diferentes escalas ou resolucións5.Debido a que os artefactos de imaxe poden afectar o rendemento da imaxe a pequena escala e xeral a gran escala, as redes neuronais de omisión de conexión son moi adecuadas para automatizar esta tarefa de control de calidade5.Os traballos publicados recentemente mostraron certas promesas para redes neuronais convolucionais profundas adestradas utilizando datos de alta calidade de estimadores humanos6.
Neste estudo, adestramos unha rede neuronal convolucional que salta a conexión para determinar automaticamente a calidade das imaxes OCTA.Baseámonos en traballos anteriores desenvolvendo modelos separados para identificar imaxes de alta calidade e imaxes de baixa calidade, xa que os requisitos de calidade de imaxe poden diferir para escenarios clínicos ou de investigación específicos.Comparamos os resultados destas redes con redes neuronais convolucionais sen perder conexións para avaliar o valor de incluír funcións en múltiples niveis de granularidade dentro da aprendizaxe profunda.Despois comparamos os nosos resultados coa forza do sinal, unha medida comúnmente aceptada da calidade da imaxe proporcionada polos fabricantes.
O noso estudo incluíu pacientes con diabetes que acudiron ao Yale Eye Center entre o 11 de agosto de 2017 e o 11 de abril de 2019. Excluíronse os pacientes con enfermidade coriorretiniana non diabética.Non houbo criterios de inclusión ou exclusión baseados na idade, o sexo, a raza, a calidade da imaxe ou calquera outro factor.
As imaxes OCTA foron adquiridas mediante a plataforma AngioPlex nun Cirrus HD-OCT 5000 (Carl Zeiss Meditec Inc, Dublín, CA) con protocolos de imaxe de 8\(\times\)8 mm e 6\(\times\)6 mm.Obtívose o consentimento informado para participar no estudo de cada participante do estudo e o Consello de Revisión Institucional da Universidade de Yale (IRB) aprobou o uso do consentimento informado con fotografía global para todos estes pacientes.Seguindo os principios da Declaración de Helsinki.O estudo foi aprobado polo IRB da Universidade de Yale.
As imaxes de placas de superficie avaliáronse en función do Motion Artifact Score (MAS) descrito anteriormente, o Segmentation Artifact Score (SAS) descrito anteriormente, o centro foveal, a presenza de opacidade do medio e unha boa visualización dos pequenos capilares segundo o determinado polo avaliador de imaxes.As imaxes foron analizadas por dous avaliadores independentes (RD e JW).Unha imaxe ten unha puntuación de 2 (apte) se se cumpren todos os seguintes criterios: a imaxe está centrada na fóvea (a menos de 100 píxeles do centro da imaxe), MAS é 1 ou 2, SAS é 1 e a opacidade do medio é inferior a 1. Presente en imaxes de tamaño / 16, e os capilares pequenos vense en imaxes maiores de 15/16.Unha imaxe puntuarase con 0 (sen cualificación) se se cumpre algún dos seguintes criterios: a imaxe está descentrada, se MAS é 4, se SAS é 2 ou a opacidade media é superior a 1/4 da imaxe e os capilares pequenos non se poden axustar máis de 1 imaxe /4 para distinguir.Todas as outras imaxes que non cumpran os criterios de puntuación 0 ou 2 puntuaranse como 1 (recorte).
Sobre a fig.1 mostra imaxes de mostra para cada unha das estimacións escaladas e artefactos de imaxe.A fiabilidade entre avaliadores das puntuacións individuais foi avaliada mediante a ponderación kappa de Cohen8.As puntuacións individuais de cada avaliador súmanse para obter unha puntuación global para cada imaxe, que vai de 0 a 4. As imaxes cunha puntuación total de 4 considéranse boas.As imaxes cunha puntuación total de 0 ou 1 considéranse de baixa calidade.
Unha rede neuronal convolucional de arquitectura ResNet152 (Fig. 3A.i) adestrada previamente en imaxes da base de datos ImageNet foi xerada usando fast.ai e o framework PyTorch5, 9, 10, 11. Unha rede neuronal convolucional é unha rede que utiliza o aprendido. filtros para escanear fragmentos de imaxe para estudar características espaciais e locais.A nosa ResNet adestrada é unha rede neuronal de 152 capas caracterizada por lagoas ou "conexións residuais" que transmiten información simultáneamente con múltiples resolucións.Ao proxectar información a diferentes resolucións pola rede, a plataforma pode coñecer as características das imaxes de baixa calidade en varios niveis de detalle.Ademais do noso modelo ResNet, tamén adestramos AlexNet, unha arquitectura de rede neuronal ben estudada, sen faltar conexións para a comparación (Figura 3A.ii)12.Sen as conexións que faltan, esta rede non poderá capturar funcións cunha granularidade superior.
O conxunto orixinal de imaxes OCTA13 de 8\(\times\)8mm mellorouse mediante técnicas de reflexión horizontal e vertical.O conxunto de datos completo dividiuse de forma aleatoria a nivel de imaxe en conxuntos de datos de adestramento (51,2%), probas (12,8%), axuste de hiperparámetros (16%) e validación (20%) mediante a caixa de ferramentas scikit-learn python14.Consideráronse dous casos, un baseado en detectar só as imaxes de maior calidade (puntuación global 4) e o outro baseado en detectar só as imaxes de menor calidade (puntuación global 0 ou 1).Para cada caso de uso de alta e baixa calidade, a rede neuronal readestrase unha vez nos nosos datos de imaxe.En cada caso de uso, adestrouse a rede neuronal durante 10 épocas, conxeláronse todos os pesos das capas menos os máis altos e aprendíronse os pesos de todos os parámetros internos durante 40 épocas mediante un método de taxa de aprendizaxe discriminativa cunha función de perda de entropía cruzada 15, 16..A función de perda de entropía cruzada é unha medida da escala logarítmica da discrepancia entre as etiquetas de rede previstas e os datos reais.Durante o adestramento, realízase un descenso en gradiente sobre os parámetros internos da rede neuronal para minimizar as perdas.A taxa de aprendizaxe, a taxa de abandono e os hiperparámetros de redución de peso axustáronse mediante a optimización bayesiana con 2 puntos de partida aleatorios e 10 iteracións, e o AUC no conxunto de datos axustouse usando os hiperparámetros como obxectivo de 17.
Exemplos representativos de imaxes OCTA de 8 × 8 mm de plexos capilares superficiais puntuaron 2 (A, B), 1 (C, D) e 0 (E, F).Os artefactos de imaxe mostrados inclúen liñas parpadeantes (frechas), artefactos de segmentación (asteriscos) e opacidade multimedia (frechas).A imaxe (E) tamén está descentrada.
Despois xéranse curvas de características operativas do receptor (ROC) para todos os modelos de redes neuronais e xéranse informes de intensidade do sinal do motor para cada caso de uso de baixa calidade e alta calidade.A área baixo a curva (AUC) calculouse mediante o paquete pROC R e os intervalos de confianza do 95% e os valores p calculáronse mediante o método DeLong18,19.As puntuacións acumuladas dos avaliadores humanos utilízanse como referencia para todos os cálculos de ROC.Para a intensidade do sinal informada pola máquina, o AUC calculouse dúas veces: unha para o corte de puntuación de escalabilidade de alta calidade e outra para o corte de puntuación de escalabilidade de baixa calidade.A rede neuronal compárase coa forza do sinal AUC que reflicte as súas propias condicións de adestramento e avaliación.
Para probar aínda máis o modelo de aprendizaxe profunda adestrado nun conxunto de datos separado, aplicáronse directamente modelos de alta calidade e baixa calidade á avaliación do rendemento de 32 imaxes de lousa de superficie completa de 6\(\times\) 6 mm recollidas da Universidade de Yale.A masa dos ollos céntrase ao mesmo tempo que a imaxe 8 \(\times \) 8 mm.As imaxes de 6\(\×\) 6 mm foron avaliadas manualmente polos mesmos evaluadores (RD e JW) do mesmo xeito que as imaxes de 8\(\×\) 8 mm, calculouse o AUC, así como a precisión e o kappa de Cohen. .igualmente.
A relación de desequilibrio de clase é de 158:189 (\(\rho = 1,19\)) para o modelo de baixa calidade e de 80:267 (\(\rho = 3,3\)) para o modelo de alta calidade.Dado que a relación de desequilibrio de clases é inferior a 1:4, non se realizaron cambios arquitectónicos específicos para corrixir o desequilibrio de clases20,21.
Para visualizar mellor o proceso de aprendizaxe, xeráronse mapas de activación de clases para os catro modelos de aprendizaxe profunda adestrados: modelo ResNet152 de alta calidade, modelo ResNet152 de baixa calidade, modelo AlexNet de alta calidade e modelo AlexNet de baixa calidade.Os mapas de activación de clases xéranse a partir das capas convolucionais de entrada destes catro modelos, e os mapas de calor xéranse superpoñendo mapas de activación con imaxes de orixe dos conxuntos de validación de 8 × 8 mm e 6 × 6 mm22, 23.
Utilizouse a versión R 4.0.3 para todos os cálculos estatísticos e as visualizacións creáronse mediante a biblioteca de ferramentas gráficas ggplot2.
Recollemos 347 imaxes frontales do plexo capilar superficial de 8 \(\times \)8 mm de 134 persoas.A máquina informou a intensidade do sinal nunha escala de 0 a 10 para todas as imaxes (media = 6,99 ± 2,29).Das 347 imaxes adquiridas, a idade media no exame foi de 58,7 ± 14,6 anos e o 39,2% eran de homes.De todas as imaxes, o 30,8% eran de caucásicos, o 32,6% de negros, o 30,8% de hispanos, o 4% de asiáticos e o 1,7% doutras razas (táboa 1).).A distribución por idade dos pacientes con OCTA diferiu significativamente dependendo da calidade da imaxe (p < 0,001).A porcentaxe de imaxes de alta calidade en pacientes máis novos de 18 a 45 anos foi do 33,8% en comparación co 12,2% das imaxes de baixa calidade (táboa 1).A distribución do estado da retinopatía diabética tamén variou significativamente na calidade da imaxe (p < 0,017).Entre todas as imaxes de alta calidade, a porcentaxe de pacientes con PDR foi do 18,8% en comparación co 38,8% de todas as imaxes de baixa calidade (táboa 1).
As valoracións individuais de todas as imaxes mostraron unha fiabilidade entre as valoracións moderadas e fortes entre as persoas que leron as imaxes (kappa ponderado de Cohen = 0,79, IC do 95%: 0,76-0,82) e non houbo puntos de imaxe onde os avaliadores difiran en máis de 1 (Fig. 2A)..A intensidade do sinal correlacionouse significativamente coa puntuación manual (correlación do momento do produto Pearson = 0,58, IC 95% 0,51-0,65, p <0,001), pero moitas imaxes foron identificadas con alta intensidade de sinal pero baixa puntuación manual (Fig. 2B).
Durante o adestramento das arquitecturas ResNet152 e AlexNet, a perda de entropía cruzada na validación e adestramento cae máis de 50 épocas (Figura 3B, C).A precisión da validación na época de adestramento final é superior ao 90 % tanto para casos de uso de alta calidade como de baixa calidade.
As curvas de rendemento do receptor mostran que o modelo ResNet152 supera significativamente a potencia do sinal informada pola máquina en casos de uso de baixa e alta calidade (p < 0,001).O modelo ResNet152 tamén supera significativamente a arquitectura AlexNet (p = 0,005 e p = 0,014 para casos de baixa calidade e alta calidade, respectivamente).Os modelos resultantes para cada unha destas tarefas foron capaces de acadar valores de AUC de 0,99 e 0,97, respectivamente, o que é significativamente mellor que os valores de AUC correspondentes de 0,82 e 0,78 para o índice de intensidade do sinal da máquina ou 0,97 e 0,94 para AlexNet. ..(Fig. 3).A diferenza entre ResNet e AUC na intensidade do sinal é maior cando se recoñecen imaxes de alta calidade, o que indica beneficios adicionais de usar ResNet para esta tarefa.
Os gráficos mostran a capacidade de cada evaluador independente para puntuar e comparar coa intensidade do sinal informada pola máquina.(A) A suma dos puntos a avaliar utilízase para crear o número total de puntos a avaliar.As imaxes cunha puntuación de escalabilidade global de 4 asígnaselles de alta calidade, mentres que as imaxes cunha puntuación de escalabilidade global de 1 ou menos asígnaselles de baixa calidade.(B) A intensidade do sinal correlaciona coas estimacións manuais, pero as imaxes con alta intensidade de sinal poden ser de peor calidade.A liña de puntos vermellas indica o limiar de calidade recomendado polo fabricante en función da intensidade do sinal (intensidade do sinal \(\ge\)6).
A aprendizaxe de transferencia de ResNet proporciona unha mellora significativa na identificación da calidade da imaxe tanto para casos de uso de baixa calidade como de alta calidade en comparación cos niveis de sinal informados pola máquina.(A) Diagramas de arquitectura simplificados de arquitecturas (i) ResNet152 e (ii) AlexNet previamente adestradas.(B) Historial de adestramento e curvas de rendemento do receptor para ResNet152 en comparación coa forza do sinal informada da máquina e os criterios de baixa calidade de AlexNet.(C) Historial de adestramento do receptor ResNet152 e curvas de rendemento en comparación coa forza do sinal informada da máquina e os criterios de alta calidade de AlexNet.
Despois de axustar o limiar do límite de decisión, a precisión de predición máxima do modelo ResNet152 é do 95,3% para o caso de baixa calidade e do 93,5% para o caso de alta calidade (táboa 2).A máxima precisión de predición do modelo AlexNet é do 91,0% para o caso de baixa calidade e do 90,1% para o caso de alta calidade (táboa 2).A precisión máxima da predicción da intensidade do sinal é do 76,1 % no caso de uso de baixa calidade e do 77,8 % no caso de uso de alta calidade.Segundo o kappa de Cohen (\(\kappa\)), o acordo entre o modelo ResNet152 e os estimadores é de 0,90 para o caso de baixa calidade e de 0,81 para o de alta calidade.O AlexNet kappa de Cohen é de 0,82 e 0,71 para casos de uso de baixa calidade e de alta calidade, respectivamente.A forza de sinal kappa de Cohen é de 0,52 e 0,27 para os casos de uso de baixa e alta calidade, respectivamente.
A validación de modelos de recoñecemento de alta e baixa calidade en imaxes de 6\(\x\) dunha placa plana de 6 mm demostra a capacidade do modelo adestrado para determinar a calidade da imaxe a través de varios parámetros de imaxe.Cando se usaban placas pouco profundas de 6\(\x\) 6 mm para a calidade de imaxe, o modelo de baixa calidade tiña un AUC de 0,83 (IC 95%: 0,69-0,98) e o modelo de alta calidade tiña un AUC de 0,85.(IC 95%: 0,55-1,00) (táboa 2).
A inspección visual dos mapas de activación da clase de capa de entrada mostrou que todas as redes neuronais adestradas usaban características da imaxe durante a clasificación da imaxe (Fig. 4A, B).Para imaxes de 8 \(\times \) 8 mm e 6 \(\times \) 6 mm, as imaxes de activación de ResNet seguen de preto a vasculatura da retina.Os mapas de activación de AlexNet tamén seguen os vasos da retina, pero cunha resolución máis grosa.
Os mapas de activación de clases para os modelos ResNet152 e AlexNet destacan características relacionadas coa calidade da imaxe.(A) Mapa de activación de clase que mostra a activación coherente despois da vasculatura superficial da retina en imaxes de validación de 8 \(\times \) 8 mm e (B) extensión en imaxes de validación máis pequenas de 6 \(\times \) 6 mm.Modelo LQ adestrado en criterios de baixa calidade, modelo HQ adestrado en criterios de alta calidade.
Previamente demostrouse que a calidade da imaxe pode afectar moito a calquera cuantificación das imaxes OCTA.Ademais, a presenza de retinopatía aumenta a incidencia de artefactos de imaxe7,26.De feito, nos nosos datos, en consonancia con estudos anteriores, atopamos unha asociación significativa entre o aumento da idade e a gravidade da enfermidade da retina e a deterioración da calidade da imaxe (p < 0,001, p = 0,017 para a idade e o estado de DR, respectivamente; Táboa 1) 27 Polo tanto, é fundamental avaliar a calidade da imaxe antes de realizar calquera análise cuantitativa das imaxes OCTA.A maioría dos estudos que analizan imaxes OCTA usan limiares de intensidade de sinal informados pola máquina para descartar imaxes de baixa calidade.Aínda que se demostrou que a intensidade do sinal afecta á cuantificación dos parámetros OCTA, a intensidade do sinal por si só pode non ser suficiente para descartar imaxes con artefactos de imaxe2,3,28,29.Polo tanto, é necesario desenvolver un método máis fiable de control da calidade da imaxe.Para iso, avaliamos o rendemento dos métodos de aprendizaxe profunda supervisados ​​fronte á intensidade do sinal informada pola máquina.
Desenvolvemos varios modelos para avaliar a calidade da imaxe porque os diferentes casos de uso de OCTA poden ter requisitos de calidade de imaxe diferentes.Por exemplo, as imaxes deben ser de maior calidade.Ademais, tamén son importantes parámetros cuantitativos específicos de interese.Por exemplo, a zona da zona avascular foveal non depende da turbidez do medio non central, senón que afecta a densidade dos vasos.Aínda que a nosa investigación segue centrándose nun enfoque xeral da calidade da imaxe, non vinculado aos requisitos de ningunha proba en particular, senón que pretende substituír directamente a intensidade do sinal informada pola máquina, esperamos ofrecer aos usuarios un maior grao de control para que poidan pode seleccionar a métrica específica de interese para o usuario.elixe un modelo que se corresponda co grao máximo de artefactos de imaxe considerados aceptables.
Para escenas de baixa calidade e de alta calidade, mostramos un excelente rendemento das redes neuronais convolucionais profundas sen conexión, con AUC de 0,97 e 0,99 e modelos de baixa calidade, respectivamente.Tamén demostramos o rendemento superior do noso enfoque de aprendizaxe profunda en comparación cos niveis de sinal informados só polas máquinas.As conexións de salto permiten que as redes neuronais aprendan funcións en múltiples niveis de detalle, capturando aspectos máis finos das imaxes (por exemplo, o contraste) así como características xerais (por exemplo, o centrado de imaxes30,31).Dado que os artefactos de imaxe que afectan á calidade da imaxe probablemente se identifiquen mellor nunha ampla gama, as arquitecturas de redes neuronais ás que faltan conexións poden presentar un mellor rendemento que aquelas sen tarefas de determinación da calidade da imaxe.
Ao probar o noso modelo en imaxes OCTA de 6\(\×6mm), observamos unha diminución do rendemento da clasificación tanto para os modelos de alta calidade como para os modelos de baixa calidade (Fig. 2), en contraste co tamaño do modelo adestrado para a clasificación.En comparación co modelo ResNet, o modelo AlexNet ten unha caída maior.O rendemento relativamente mellor de ResNet pode deberse á capacidade das conexións residuais para transmitir información a múltiples escalas, o que fai que o modelo sexa máis robusto para clasificar imaxes capturadas a diferentes escalas e/ou aumentos.
Algunhas diferenzas entre imaxes de 8 \(\×\) 8 mm e imaxes de 6 \(\×\) 6 mm poden levar a unha mala clasificación, incluíndo unha proporción relativamente alta de imaxes que conteñen áreas avasculares foveais, cambios na visibilidade, arcadas vasculares e sen nervio óptico na imaxe 6×6 mm.A pesar diso, o noso modelo ResNet de alta calidade foi capaz de acadar un AUC do 85 % para imaxes de 6 \(\x\) 6 mm, unha configuración para a que o modelo non foi adestrado, o que suxire que a información de calidade da imaxe codificada na rede neuronal é axeitado.para un tamaño de imaxe ou configuración da máquina fóra da súa formación (táboa 2).De xeito tranquilizador, os mapas de activación tipo ResNet e AlexNet de imaxes de 8 \(\times \) 8 mm e 6 \(\times \) 6 mm puideron resaltar os vasos da retina en ambos os casos, o que suxire que o modelo ten información importante.son aplicables para clasificar ambos tipos de imaxes OCTA (Fig. 4).
Lauerman et al.A avaliación da calidade da imaxe nas imaxes OCTA realizouse de xeito similar mediante a arquitectura Inception, outra rede neuronal convolucional de conexión de salto6,32 utilizando técnicas de aprendizaxe profunda.Tamén limitaron o estudo a imaxes do plexo capilar superficial, pero só utilizando as imaxes máis pequenas de 3×3 mm de Optovue AngioVue, aínda que tamén se incluíron pacientes con diversas enfermidades coriorretinianas.O noso traballo baséase nos seus fundamentos, incluíndo varios modelos para abordar varios limiares de calidade de imaxe e validar resultados para imaxes de diferentes tamaños.Tamén informamos da métrica AUC dos modelos de aprendizaxe automática e aumentamos a súa xa impresionante precisión (90%)6 tanto para modelos de baixa calidade (96%) como de alta calidade (95,7%)6.
Esta formación ten varias limitacións.En primeiro lugar, as imaxes foron adquiridas cunha única máquina OCTA, incluíndo só imaxes do plexo capilar superficial a 8\(\times\)8 mm e 6\(\times\)6 mm.O motivo para excluír imaxes das capas máis profundas é que os artefactos de proxección poden facer que a avaliación manual das imaxes sexa máis difícil e posiblemente menos consistente.Ademais, só se adquiriron imaxes en pacientes diabéticos, para os que a OCTA está a aparecer como unha importante ferramenta de diagnóstico e pronóstico33,34.Aínda que puidemos probar o noso modelo en imaxes de diferentes tamaños para garantir que os resultados fosen robustos, non puidemos identificar conxuntos de datos axeitados de diferentes centros, o que limitou a nosa avaliación da xeneralizabilidade do modelo.Aínda que as imaxes foron obtidas dun só centro, obtivéronse de pacientes de diferentes orixes étnicas e raciais, o que é un punto forte do noso estudo.Ao incluír a diversidade no noso proceso de formación, esperamos que os nosos resultados se xeneralicen nun sentido máis amplo e que evitemos codificar sesgos raciais nos modelos que adestramos.
O noso estudo mostra que as redes neuronais que saltan conexión poden adestrarse para acadar un alto rendemento na determinación da calidade da imaxe OCTA.Proporcionamos estes modelos como ferramentas para futuras investigacións.Dado que as diferentes métricas poden ter requisitos de calidade de imaxe diferentes, pódese desenvolver un modelo de control de calidade individual para cada métrica utilizando a estrutura aquí establecida.
As investigacións futuras deberían incluír imaxes de diferentes tamaños de diferentes profundidades e diferentes máquinas OCTA para obter un proceso de avaliación da calidade da imaxe de aprendizaxe profunda que poida xeneralizarse ás plataformas OCTA e aos protocolos de imaxe.A investigación actual tamén se basea en enfoques de aprendizaxe profunda supervisada que requiren avaliación humana e avaliación de imaxes, que poden ser laboriosos e lentos para grandes conxuntos de datos.Queda por ver se os métodos de aprendizaxe profunda sen supervisión poden distinguir adecuadamente entre imaxes de baixa calidade e imaxes de alta calidade.
A medida que a tecnoloxía OCTA segue evolucionando e aumentan as velocidades de dixitalización, a incidencia de artefactos de imaxe e imaxes de mala calidade pode diminuír.As melloras no software, como a función de eliminación de artefactos de proxección introducida recentemente, tamén poden aliviar estas limitacións.Non obstante, permanecen moitos problemas xa que as imaxes de pacientes cunha fixación deficiente ou unha turbidez significativa dos medios orixinan artefactos de imaxe invariablemente.A medida que OCTA se fai máis amplamente utilizado nos ensaios clínicos, é necesario ter unha coidadosa consideración para establecer directrices claras para os niveis aceptables de artefactos de imaxe para a análise de imaxes.A aplicación de métodos de aprendizaxe profunda ás imaxes OCTA é moi prometedora e é necesaria máis investigación nesta área para desenvolver un enfoque sólido para o control da calidade da imaxe.
O código usado na investigación actual está dispoñible no repositorio octa-qc, https://github.com/rahuldhodapkar/octa-qc.Os conxuntos de datos xerados e/ou analizados durante o estudo actual están dispoñibles dos respectivos autores previa solicitude razoable.
Spaide, RF, Fujimoto, JG & Waheed, NK Artefactos de imaxe na anxiografía de coherencia óptica.Retina 35, 2163–2180 (2015).
Fenner, BJ et al.Identificación de características de imaxe que determinan a calidade e reproducibilidade das medicións da densidade do plexo capilar retiniano na anxiografía OCT.BR.J. Oftalmol.102, 509–514 (2018).
Lauerman, JL et al.Influencia da tecnoloxía de seguimento ocular na calidade da imaxe da anxiografía OCT na dexeneración macular relacionada coa idade.Arco sepulcro.clínica.Exp.oftalmoloxía.255, 1535–1542 (2017).
Babyuch AS et al.As medidas de densidade de perfusión capilar OCTA úsanse para detectar e avaliar a isquemia macular.cirurxía oftálmica.Retinal Laser Imaging 51, S30–S36 (2020).
El, K., Zhang, X., Ren, S. e Sun, J. Deep Residual Learning for Image Recognition.En 2016 na Conferencia IEEE sobre Visión por Computador e Recoñecemento de Patróns (2016).
Lauerman, JL et al.Avaliación automatizada da calidade da imaxe anxiográfica OCT utilizando algoritmos de aprendizaxe profunda.Arco sepulcro.clínica.Exp.oftalmoloxía.257, 1641–1648 (2019).
Lauermann, J. et al.A prevalencia de erros de segmentación e artefactos de movemento na anxiografía OCT depende da enfermidade da retina.Arco sepulcro.clínica.Exp.oftalmoloxía.256, 1807–1816 (2018).
Pask, Adam et al.Pytorch: unha biblioteca de aprendizaxe profunda imperativa e de alto rendemento.Procesamento avanzado da información neuronal.sistema.32, 8026–8037 (2019).
Deng, J. et al.ImageNet: unha base de datos de imaxes xerárquicas a gran escala.2009 IEEE Conference on Computer Vision and Pattern Recognition.248–255.(2009).
Krizhevsky A., Sutzkever I. e Hinton GE Clasificación Imagenet usando redes neuronais convolucionais profundas.Procesamento avanzado da información neuronal.sistema.25, 1 (2012).


Hora de publicación: 30-mai-2023
  • wechat
  • wechat