L'intelligence artificielle de Google peut déceler les cellules cancéreuses de la prostate avec une précision de 70%

L'intelligence artificielle de Google peut déceler les cellules cancéreuses de la prostate avec une précision de 70%

L'intelligence artificielle de Google peut déceler les cellules cancéreuses de la prostate avec une précision de 70%

Ci-contre : le siège de Google à Londres, au 6 Pancras Square. 11 octobre 2018.

Crédit d'image: Paul Sawers / VentureBeat
Selon le National Cancer Institute , environ un homme sur neuf aux États-Unis va développer un cancer de la prostate au cours de sa vie , et plus de 2,9 millions de patients chez qui un tel diagnostic a été diagnostiqué sont toujours vivants. Et du point de vue du traitement, cela a tendance à être problématique - le cancer de la prostate est souvent non agressif, ce qui rend difficile de déterminer quelles procédures, le cas échéant, pourraient être nécessaires.

Google a fait des progrès dans le diagnostic, encourageant, à l'aide de l'intelligence artificielle (IA). Dans un article (" Développement et validation d'un algorithme d'apprentissage en profondeur pour améliorer le score de Gleason du cancer de la prostate de Gleason ") et un article de blog qui les accompagne , les chercheurs de Google AI décrivent un système utilisant le score de Gleason, un système de classification qui classe les cellules cancéreuses en fonction de elles ressemblent aux glandes prostatiques normales - pour détecter des masses problématiques dans des échantillons.

 
Selon le responsable technique Martin Stumpe et le chef de produit Google AI Healthcare Craig Mermel, l'objectif était de développer une intelligence artificielle capable d'effectuer le classement de Gleason de manière objective - et précise. Les études montrent que les pathologistes humains sont en désaccord sur les notes jusqu'à 53%.

«Nous avons développé un système d'apprentissage en profondeur (DLS) qui reflète le flux de travail d'un pathologiste en classant d'abord chaque région d'une diapositive en un motif de Gleason, les motifs inférieurs correspondant à des tumeurs ressemblant davantage aux glandes de la prostate normales», ont-ils écrit. «Plus le groupe d'âge est élevé, plus le risque de progression du cancer est grand et plus le patient bénéficiera du traitement.»

gleasons

Ci-contre : exemples de motifs de Gleason.

Les chercheurs ont mis au point le modèle d'Intelligence artificielle en recueillant tout d'abord des images anonymisées d'échantillons de prostatectomie, qui, selon eux, contiennent une quantité et une diversité de cancers de la prostate plus grandes que les biopsies à l'aiguille. Un groupe de 32 pathologistes généralistes a fourni des annotations des motifs de Gleason (ce qui a généré plus de 112 millions de patchs d'image annotés) et une note globale de groupe de Gleason pour chaque image. Afin d'atténuer la variabilité, chaque lame a été notée indépendamment par 3 à 5 pathologistes d'une cohorte de 29, en plus d'un pathologiste génito-urinaire .

Les résultats étaient prometteurs. Lors des tests, le modèle d'intelligence artificielle a atteint une précision globale de 70%, dépassant les 61% atteints par les pathologistes certifiés par le conseil d'administration américains ayant participé à l'étude. En outre, il a obtenu de meilleurs résultats que huit des dix pathologistes individuels «performants» qui ont évalué la diapositive de la série de validation, et ont mieux identifié les patients présentant un risque plus élevé de récidive de la maladie après la chirurgie. Enfin, il a permis de caractériser les tissus qui se trouvaient à cheval entre deux motifs de Gleason - par exemple, le motif de Gleason 3.3 ou 3.7, entre 3 et 4.

Les travaux futurs examineront comment le système pourrait être intégré aux flux de travail de diagnostic des pathologistes; comment cela pourrait-il être adapté pour travailler sur des biopsies de diagnostic de carottes d'aiguilles; et son impact global sur «l'efficacité, la précision et les capacités pronostiques». Les chercheurs préviennent cependant que sa précision devrait être améliorée avec des données de formation supplémentaires.

«Il reste encore beaucoup à faire avant de pouvoir utiliser des systèmes tels que notre système DLS pour améliorer les soins des patients atteints d'un cancer de la prostate», ont écrit Stumpe et Mermel. «Néanmoins, nous sommes enthousiasmés par le potentiel de telles technologies pour améliorer de manière significative le diagnostic du cancer et les soins aux patients.»

Google et Deepmind, sa filiale de recherche sur l'IA, sont impliqués dans plusieurs projets d'IA liés à la santé, notamment un  essai en cours  au département américain des Anciens Combattants qui cherche à prédire quand la situation des patients se détériorera pendant un séjour à l'hôpital. Auparavant, Deepmind s'était associé au National Health Service du  Royaume-Uni  pour développer un algorithme permettant de  rechercher les premiers signes de cécité et d'améliorer la détection du cancer du sein en appliquant l'apprentissage automatique à la mammographie.

source : KYLE WIGGERS - 

Cancers de la peau : L'intelligence artificielle au service des dermatologues pour repérer les cancers

Cancers de la peau : L'intelligence artificielle au service des dermatologues pour repérer les cancers


Cancers de la peau : L'intelligence artificielle au service des dermatologues pour repérer les cancers

Un ordinateur a réussi à être meilleur que les dermatologues pour repérer les cancers de la peau sur une série de photos, a annoncé mardi une équipe de chercheurs.
Une équipe germano-franco-américaine a entraîné ce système d'intelligence artificielle à distinguer des lésions de la peau et grains de beauté selon qu'ils étaient bénins ou alarmants, en lui montrant plus de 100.000 images.

Puis les performances de la machine (un réseau neuronal convolutif, dans le jargon des sciences de l'information) ont été comparées à celles de 58 médecins spécialistes, venus de 17 pays.

"La plupart des dermatologues ont fait moins bien", écrivent les chercheurs dans la revue Annals of Oncology.

Mélanome

Mélanome

Avec une simple photo de 100 cas jugés compliqués, les médecins ont correctement identifié 87% en moyenne des mélanomes qui leur étaient présentés.

Quand ils obtenaient des images en plus gros plan, et des renseignements plus détaillés (âge et sexe du patient, position de la lésion cutanée), ce taux montait à 89%.

Mais la machine a fait mieux, avec 95% de mélanomes détectés à partir de la première série de photos.

L'ordinateur non seulement "a manqué moins de mélanomes", mais a aussi "fait moins d'erreurs de diagnostic consistant à voir des mélanomes dans des grains de beauté bénins", ce qui "aboutirait à moins d'opérations inutiles", a souligné dans un communiqué le professeur de médecine Holger Hänssle, de l'université de Heildelberg (Allemagne).

Pour les chercheurs, la question n'est pas de se passer des médecins au profit de l'intelligence artificielle, mais de faire d'elle "un outil supplémentaire".

"Aujourd'hui rien ne remplace un examen clinique approfondi", ont rappelé deux professeurs australiens en dermatologie, Victoria Mar et Peter Soyer, dans un commentaire publié avec l'étude.

D'après le Centre international de recherche sur le cancer, agence de l'Organisation mondiale de la santé, chaque année 232.000 cas de mélanome malin sont déclarés, et 55.000 personnes en meurent.

Ce type de cancer "peut être soigné s'il est détecté de manière précoce, mais de nombreux cas ne sont diagnostiqués que quand le cancer est plus avancé et difficile à traiter", ont souligné les chercheurs.

Par AFP et FranceInfos 

 

Google a développé une intelligence artificielle capable de générer sa propre IA

Google a développé une intelligence artificielle capable de générer sa propre IA

L’intelligence artificielle de Google a créé une IA plus intelligente que celle créée par l’homme

Google a développé une intelligence artificielle capable de générer sa propre IA. Au cœur du dispositif : la vision et la reconnaissance de l’environnement.

En Bref : Le projet AutoML de Google, conçu pour permettre à AI de construire d'autres IA, a maintenant développé un système de vision par ordinateur qui surclasse largement les modèles de pointe. Le projet pourrait améliorer la façon dont les véhicules autonomes et les robots IA de nouvelle génération «voient».

En mai 2017, des chercheurs de Google Brain ont annoncé la création d' AutoML , une intelligence artificielle (IA) capable de générer ses propres IA. Plus récemment, ils ont décidé de présenter AutoML avec son plus grand défi à ce jour, et l'IA qui peut construire AI a créé un «enfant» qui a surpassé tous ses homologues fabriqués par l'homme.

Les chercheurs de Google ont automatisé la conception de modèles d'apprentissage automatique en utilisant une approche appelée apprentissage par renforcement . AutoML agit comme un réseau neuronal de contrôleur qui développe un réseau AI d'enfant pour une tâche spécifique. Pour cette IA enfant particulière, que les chercheurs appelaient NASNet, la tâche consistait à reconnaître des objets - personnes, voitures, feux de circulation, sacs à main, sacs à dos, etc. - dans une vidéo en temps réel.

intelligence artificielle apprentissage de la machine renforcement apprentissage automl

intelligence artificielle apprentissage de la machine renforcement apprentissage automl - (image : Google Research)

 

AutoML évaluerait les performances de NASNet et utiliserait ces informations pour améliorer son intelligence artificielle enfantine, en répétant le processus des milliers de fois. Lorsqu'ils ont été testés sur les ensembles de données de classification d'images ImageNet et de détection d'objets COCO , que les chercheurs de Google appellent «deux des ensembles de données académiques à grande échelle les plus respectés en vision par ordinateur», NASNet a surpassé tous les autres systèmes de vision.

 

 

Selon les chercheurs, NASNet était précis à 82,7% pour prédire les images sur l'ensemble de validation d'ImageNet. C'est 1,2% de mieux que tous les résultats précédemment publiés , et le système est également 4 pour cent plus efficace, avec une moyenne de 43,1 pour cent de précision moyenne (mAP). En outre, une version moins exigeante en termes de calcul de NASNet a surpassé de 3,1% les meilleurs modèles de taille similaire pour les plates-formes mobiles.

Une vision de l'avenir

L'apprentissage automatique est ce qui donne à de nombreux systèmes d'IA leur capacité à effectuer des tâches spécifiques. Bien que le concept sous-jacent soit assez simple - un algorithme apprend en se nourrissant d'une tonne de données - le processus demande énormément de temps et d'efforts. En automatisant le processus de création de systèmes d'IA efficaces et précis, une IA capable de construire l'IA prend en charge ce travail. En fin de compte, cela signifie que AutoML pourrait ouvrir le champ de l'apprentissage automatique et de l'IA à des non-experts.

En ce qui concerne spécifiquement NASNet, des algorithmes de vision par ordinateurprécis et efficaces sont très recherchés en raison du nombre d'applications potentielles. Ils pourraient être utilisés pour créer des robots sophistiqués pilotés par l'IA ou pour aider les malvoyants à retrouver la vue, comme l'a suggéré un chercheur . Ils pourraient également aider les concepteurs à améliorer les technologies des véhicules autonomes. Plus un véhicule autonome peut reconnaîtrerapidement des objets sur son passage, plus il peut réagir rapidement, augmentant ainsi la sécurité de ces véhicules.

Bien que les applications pour NASNet et AutoML soient nombreuses, la création d'une IA capable de construire de l'IA soulève certaines inquiétudes . Par exemple, qu'est-ce qui empêche le parent de transmettre des préjugés indésirables à son enfant? Et si AutoML crée des systèmes si rapidement que la société ne peut pas suivre? Il n'est pas très difficile de voir comment NASNet pourrait être utilisé dans des systèmes de surveillance automatisés dans un proche avenir, peut-être plus tôt que les règlements pourraient être mis en place pour contrôler ces systèmes.Les chercheurs de Google reconnaissent que NASNet pourrait s'avérer utile pour un large éventail d'applications et ont ouvert l'IA pour l' inférence sur la classification des images et la détection d'objets .

«Nous espérons que la plus grande communauté d'apprentissage de la machine pourra s'appuyer sur ces modèles pour répondre à une multitude de problèmes de vision par ordinateur que nous n'avons pas encore imaginés», ont-ils écrit dans leur billet.

Heureusement, les dirigeants du monde travaillent rapidement pour s'assurer que de tels systèmes ne mènent à aucune sorte d'avenir dystopique.

Amazon, Facebook, Apple et plusieurs autres sont tous membres du Partenariat sur l'intelligence artificielle au profit de People and Society , une organisation axée sur le développement responsable de l'IA. L'Institut des ingénieurs électriques et électroniques (IEE) a proposé des normes éthiques pour l'IA, et DeepMind, une société de recherche appartenant à la société mère de Google Alphabet, a récemment annoncé la création d'un groupe axé sur les implications morales et éthiques de l'IA.

Divers gouvernements travaillent également sur des règlements pour empêcher l'utilisation de l'IA à des fins dangereuses, telles que les armes autonomes , et tant que les humains maintiennent le contrôle de la direction générale du développement de l'IA, les avantages d'une IA capable de construire l'IA devraient l'emporter. tout piège potentiel.

Source https://futurism.com/google-artificial-intelligence-built-ai/ - 

Pour le Laboratoire d’intelligence artificielle de Facebook l’analyse des images est cruciale

Pour le Laboratoire d’intelligence artificielle de Facebook l’analyse des images est cruciale

Le Français Yann LeCun, professeur à l’université de New-York, dirige le laboratoire d’intelligence artificielle de Facebook, qui invente le réseau social de demain.

A quoi ressemble le « Facebook IA research » ?

Il regroupe actuellement une vingtaine de personnes, et nous comptons bien en avoir une centaine à terme. Les trois quarts d’entre eux sont chercheurs, les autres, ingénieurs de haut niveau, ce qui permet un transfert de technologies de très haute qualité. Cela dit, nous faisons avant tout de la recherche fondamentale en intelligence artificielle. Mark Zuckerberg a annoncé que Facebook y investirait plusieurs centaines de millions de dollars dans les années qui viennent. Nous publions nos travaux comme n’importe quel labo et tout le monde peut utiliser nos méthodes. Et nous travaillons sur des domaines qui intéressent particulièrement le réseau social que nous sommes : la compréhension de texte, l’analyse d’images, de vidéos et les interactions sociales.

Pour quelle raison un réseau social a-t-il besoin d’intelligence artificielle ?

Facebook compte aujourd’hui 1,3 milliard d’utilisateurs. 800 millions d’entre eux se connectent tous les jours, pendant une quarantaine de minutes en moyenne. Et chacun pourrait voir 2 000 éléments d’informations par jour, postées par des amis ou à caractère commercial.

Personne n’a le temps de le faire, évidemment. Donc il faut faire une sélection et savoir ce qui serait intéressant pour chaque utilisateur, que ce soit du texte ou de l’image. C’est le problème principal de Facebook : faciliter la communication entre les gens, faire remonter les informations pertinentes.

Et c’est là que l’intelligence artificielle s’avère utile ?

Oui. Beaucoup de compagnies font ce type de sélection. Amazon, par exemple, le fait pour proposer des produits à acheter ou vous montrer des pages que vous avez visitées. Les technologies qui le permettent existent depuis longtemps mais ne sont pas très futées car assez peu d’entre elles analysent vraiment le contenu des informations. Si vous entrez « baleine bleue » dans le moteur de recherche de Google, par exemple, il va montrer des images de baleine bleue.

Jusqu’à très récemment, Google n’avait pas de système automatique d’analyse d’image pour repérer les images pertinentes : en gros, cette image de baleine avait été montrée à des milliers de gens et comme ces derniers avaient cliqué sur elle quand ils cherchaient une baleine bleue, elle avait été repérée comme telle. Depuis quelques années, les technologies de « deep learning » ou apprentissage profond permettent aux machines de regarder les images et de savoir s’il y a véritablement une baleine bleue dans l’image, même si l’image vient d’apparaître sur le web et que personne n’a encore cliqué dessus.

Qu’est-ce que l’apprentissage profond ?

C’est une série de technique qui permettent à des machines de reconnaître de la parole, du texte ou des images, ou de comprendre du texte ; tout en nécessitant très peu de travail de conception préalable. On dit « profond », car ces systèmes sont constitués de nombreuses couches successives qui transforment progressivement l’information de bas niveau (les pixels d’une image) en niveau intermédiaire (les motifs dans l’image) puis en concepts de haut niveau (y a-t-il une baleine bleue ?)

Retrouvez l’interview complète de Yann LeCun dans les Dossiers de La Recherche  Propos recueillis par Sophie Coisne, Gautier Cariou, Mark Zuckerberg, le CEO de Facebook, a bien compris tous les avantages qu’il pouvait tirer de l’intelligence artificielle sur son réseau social, lequel brasse une masse impressionnante de données. Données qui ont besoin d’être identifiées, exploitées et monétisées. Le cœur de l’activité de la firme américaine.
Voir aussi : https://research.facebook.com/

[cite]

 

close

Partagez

libero id ante. quis Aenean Sed nec risus.
Cancers Cancérisation, Intelligence Artificielle