Reconstruire un visage pixelisé par intelligence artificielle, avec une simple GeForce GTX 1080

« srez » exploite la puissance de l’apprentissage automatique à l’aide d’une carte graphique grand public et un simple programme en Python. Cette branche de l’intelligence artificielle n’est clairement plus réservée aux supercalculateurs.

Image 1 : Reconstruire un visage pixelisé par intelligence artificielle, avec une simple GeForce GTX 1080A gauche l’image de départ et un upscaling classique. A Droite, l’image recréée par l’intelligence artificielle, en comparaison avec l’image originale (la plus à droite).Image 2 : Reconstruire un visage pixelisé par intelligence artificielle, avec une simple GeForce GTX 1080David Garcia, un développeur, vient de publier « srez » sur GitHub, un projet très intéressant faisant appel à l’apprentissage automatique pour reconstituer les photos de visages. Le système est capable de déterminer les pixels à rajouter pour faire un upscaling multipliant les dimensions de l’image par quatre pour atteindre 64 pixels x 64 pixels. La démonstration de la technologie par le développeur est impressionnante : les images ci-contre furent obtenues, selon lui, après une session d’entraînement de seulement trois heures sur une GeForce GTX 1080.

L’apprentissage automatique sur son PC

Le programme est petit avec seulement 200 lignes de codes pour le fichier principal et 100 lignes pour le système d’entraînement. Il est écrit en Python 3 et repose sur Tensorflow, la bibliothèque optimisée pour l’apprentissage automatique. Il est donc très symbolique puisqu’il montre qu’il est possible d’utiliser une carte graphique grand public et des outils relativement faciles à maîtriser pour profiter d’une puissance qui était réservée à des supercalculateurs il y a seulement quelques années.