On nous annonce que l’informatique de demain sera révolutionnée par le « calcul parallèle ». Qu’une nouvelle architecture informatique devrait naître, poussée par l’utilisation des processeurs à coeur multiples fabricants Intel ou AMD. L’enjeu technologique est majeur. Gageons que l’Europe ne jouera pas « petit bras » car l’Inde et la Chine semblent mettre le paquet dans la recherche en la matière. S’il passe un ou plusieurs visiteurs compétents dans ces technologies qui vont révolutionner les sciences informatiques, nous sommes « tout ouïs » !
La chose est assez simple, vu sous l’angle d’un non-spécialiste :
Depuis les années 1980, nous nous habituons à l’idée selon laquelle les microprocesseurs voient leur puissance régulièrement augmenter de manière vertigineuse. Ainsi un téléphone portable de2007 est-il capable de prouesses qui auraient mis à mal les ordinateurs individuels les plus modernes de 1998.
Cet état de fait, énoncé sous le nom de "Loi de Moore" est parfaitement intégré par l’industrie. Depuis 1990 en gros, les projets informatiques bien menés intègrent ce facteur dans la gestion du cycle de vie de leurs projets. Par exemple, en matière de gestion de parc micro-informatique, il est souvent plus intéressant d’acheter des micro-ordinateurs bas de gamme et de les renouveller plus souvent que d’en acquérir moins souvent de plus gros. Pareillement, lorsque l’on programme un logiciel de rendu graphique pour un jeu (ou un système informatique de gestion publique), on anticipe les performances des machines à un horizon de X années à l’avance. Cette règle valant pour tous les calculateurs, y compris ceux qui équipent les équipements réseaux, et influe donc aussi sur les performances des réseaux et de toute l’électronique : c’est pour ne pas avoir compris cela à temps que l’industrie électronique et télécom française s’est retrouvée "laissée sur place" par l’avancée technologique brutale de l’Asie et l’Amérique de 1995 à 2000 (se souvient-on que de 1990 à 1995, avant la privatisation de France Telecom, la France avait une position très enviable à niveau mondial en télécoms ??)
Hélas, depuis peu, l’industrie ne parvient plus à faire progresser la puissance des microprocesseurs : plus précisément, elle ne parvient plus à faire progresser la puissance des "coeurs", les éléments qui font les calculs proprement dits.
Donc, pour continuer à fournir au marché des raisons de racheter de nouveaux calculateurs en fournissant des performances de plus en plus élevées pour un prix de base à peu près constant, l’industrie met de plus en plus de "coeurs" dans un seul et unique microprocesseur.
Or, on ne programme pas du tout de la même manière selon si on programme en imaginant que le programme qu’on écrit tournera sur un seul coeur/calculateur que sur plusieurs. Et on écrit de manière encore très différente si on envisage de disposer de plusieurs calculateurs disposant chacun de plusieus coeurs fontionnant en parallèle. La magie qui faisait qu’autrefois, on concevait les projets en se disant que "le temps arrangerait tout seul les questions de performance" n’est plus : il faut parfois ré-écrire totalement les logiciels existants pour qu’ils continuent à profiter du surcoit continu de puissance (ceux qui n’en profitent pas étant condamnés à disparaître au profit de leurs concurrents).
Il y a donc là matière à éventuelle redistribution des cartes dans une industrie outrageusement dominée par l’Asie et l’Amérique : mais ne rêvons pas trop : la détresse matérielle dans laquelle vit notre université depuis le milieu des années 80 a fait que les meilleurs spécialistes dont disposaient la France dans le secteur de l’électronique, du traitement du signal, de l’automatisme ou des télécoms sont à la retraite ou depuis longtemps partis travailler à l’étranger, chez ces grands noms que tout le monde connait.
En France, il faut cependant se méfier du sujet : il existe en effet une "section" identifiée de la nomenclature de recherche publique s’intéressant tout particulièrement au calcul parallèle, et donc, très intéressée à la banalisation du discours relatif à la programmation parallèle. Ici comme en d’autres secteurs, il faut bien se souvenir que la puissance publique n’a jamais produit par elle-même la crème de l’innovation technologique, tout simplement parce que ce n’est pas son point fort.
monsieur le ministre; vous nous avez écrit dans un précédent billet votre désaccord avec l’orthographe….Cette amicale discorde perdure; heureusement "nous sommes toute ouïe"à vos déclarations….;
NDLR : Oh pardon. Mon professeur d’orthographe rentre ce soir, je risque la santion ! Merci de me prévenir. AL.
c’est en effet un sujet important, que le calcul dit "parallèle" où divers coeurs d’un processeur travaillant en simultané permettent de résoudre des opérations trés complexes en peu de temps. C’est un peu comme le pasage de l’ordinateur en windows 3.X à Windows XP ou pour les néophythes le passafe de la disquette 5 pouces au CD ou DVD !
la recherche pure est mathématique autant qu’informatique. Il ne faut pas perdre de vue d’autres pistes commes celles des nano technologies où la nous sommes plutot en avance.
Pourvu que cela ne se termine pas comme pour les éléments de sécurité dans les puces des passeports à une lutte entre des technologies européennes (empreinte digitale) et celles des USA (bio-métires). De ces choix découleront des enjeux financiers ENORMES…
ayons toujours foi en demain !
Helas, l’Europe n’a jamais réussit à prendre le train du silicium. Peu de société Européennes travaillent dans le domaine. En matière informatique, nous payons les stratégies catastophiques menées par Bull ou Thomson il y a quelques années. Pas d’acteur comme Intel, Microsoft ou Google en Europe…
En matière de télécom, l’Europe avait pris une avance considérable en concevant le GSM. Avance perdue depuis au profit des américains et des asiatiques avec les normes UMTS/WIMAX. Alcatel est au plus mal, seul Nokia/Ericsson/Siemens semblent encore pouvoir rivaliser dans la bataille.
Tizel
Je ne pense pas qu’on puisse parler de revolution, mais plutot d’evolution. D’ailleurs l’ordinateur sur lequel j’ecris ce billet est un coeur duo AMD fonctionnant tres bien sur Windows XP, qui n’est meme pas le dernier systeme d’exploitation propose par Microsoft.
Comme l’a dit l’"agent", l’industrie electronique avance au rythme de la "loi de Moore". Mr Moore, cofondateur d’Intel, a formule une loi predisant le doublement de la concentration des transistors sur les microprocesseurs tous les 24 mois. Il a fait cette prediction, qui s’est revelee outrageusement exacte, il y a plusieurs decennies. Pour la petite histoire, ces chiffres sont sortis lors d’une interview. La reponse n’etait, d’apres son auteur, pas tres songee.
Nous arrivons a des generations de microprocesseurs qui contiennent des centaines de millions de transistors. Le milliard est a l’horizon.
Jusqu’a maintenant, pour faire plus puissant on faisait plus rapide. On a commence dans le kilo hertz, nous sommes dans l’ere du giga hertz, soit mille fois plus.
Le probleme c’est que plus on force un processeur a aller vite, plus il chauffe. C’est la raison pour laquelle mon processeur, par exemple, est chevauche par un enorme radiateur entoure de deux ventilateurs.
AMD s’est donc dit que plutot que d’essayer de se casser la tete a faire encore plus rapide, il serait plus intelligent, grace aux benefices de la loi de Moore, de mettre deux coeurs (lire processeurs) sur une meme puce.
Intel a suivi le mouvement. La derniere generation integre maintenant quatre coeurs.
Si vous avez suivi mon raisonnement, vous etes maintenant capable de predir la vitesse a laquelle les coeurs vont se multiplier: ils vont doubler tous les 24 mois (approximativement car il faut coordonner cette activite, ce qui consomme des composants).
D’un point de vue d’architecture logicielle, ces systemes "multi processeurs" n’ont rien de revolutionnaire. Des calculateurs comprenant des dizaines de processeurs ont fait leur apparition bien avant la fin du siecle passe (l’age de pierre informatique !)
La question subsidiaire, c’est qu’allons nous faire de toute cette puissance. Aujourd’hui la demande vient des joueurs. D’ailleurs si vous voulez avoir une bete de somme informatique, ce n’est pas un ordinateur qu’il faut acheter mais une console de jeu comme la PS3. C’est la que les architectures sont poussees au maximum.
Pour les Webeux, Wordeux, Emaileux comme moi, toute cette puissance ne sert pas a grand chose.
Mon coeur duo AMD ronronne a 10% de sa pleine puissance 99% du temps.
Comme toujours en informatique, l’evolution n’est jamais localisee en un seul point:
Une nouvelle generation de disque dur sort en ce moment. Le tera octet sera la d’ici un an ou deux. Cela veut dire que n’aurons plus de limite de stockage, meme pour la video ou la musique. Les processeurs sans fils tombent a des couts derisoires, 1$ pour Bluetooth. L’ordinateur a 100$ promis par Negroponte pour les pays en voie de developpement devient une realite (a plus que 100$ pour l’instant).
Bref, plus ca change, plus c’est pareil.
En politique, comme en informatique, il n’y a qu’une constante, c’est le changement !
J’éspére ne pas être trop technique mais clair.
Avec un ordinateur traditionnel à processeur unique, une tâche donnée est divisée en de multiples opérations qui sont effectuées l’une après l’autre (traitement séquentiel). Une architecture parallèle permet au contraire d’effectuer plusieurs opérations en même temps (calcul parallèle).
La présence de plusieurs processeurs dans la même machine permet d’accéder à une puissance de calcul et un gain de vitesse d’exécution considérables par rapport au traitement séquentiel. Cependant, le gain de temps apporté n’est pas toujours proportionnel au nombre de processeurs. Il dépend aussi de la proportion d’activités parallélisables. Le challenge pour les informaticiens et mathématiciens est donc de paralléliser la plus grande part possible des traitements. D’où le développement de nouveaux algorithmes, de nouvelles formes de codage parallèle… Plus la tâche est partitionnée en tâches indépendantes et plus elle peut être simultanément répartie entre les différents processeurs.
Heureusement qu’il y a une entreprise Francaise sur l’affaire … BULL Micral …
A bah , non ….. loupé
Le calcul parallèle (Qu’est-ce que c’est ?)
La réalisation de systèmes utilisant du calcul parallèle se traduit par des économies dans presque tous les domaines du calcul, incluant : la dynamique des fluides, les prédictions météorologique, la modélisation et simulation de problèmes de dimensions plus grandes, le traitement de l’information et l’exploration de données, le traitement d’images ou la fabrication d’images de synthèse (avec les fermes de rendu), l’intelligence artificielle et la fabrication automatisée.
Ordinateur parallèle
Le terme ordinateur parallèle est parfois utilisé en référence à un ordinateur qui possède plus d’une unité centrale de traitement et qui peut effectuer un traitement parallèle.
Il existe plusieurs types d’ordinateurs (ou de processeurs) parallèles, caractérisés, principalement, par différents modèles d’interconnexions entre les processeurs et entre les processeurs et la mémoire.
Bien qu’un système de n processeurs en parallèle ne soit pas plus efficace qu’un seul processeur ayant n fois la vitesse de l’un d’eux, le système parallèle est souvent moins coûteux à réaliser. Le calcul parallèle est, donc, une excellente solution pour des tâches exigeantes en calcul et/ou ayant des contraintes temporelles critiques (les Systèmes en temps réel). Par exemple, dans un avion de ligne, plusieurs ordinateurs effectuent en parallèle les calculs de la position de l’avion pour savoir ce que doit faire l’avion. Et s’ils ne sont pas d’accord entre eux ? Dans ce cas, ils votent.
En fait, la plupart des systèmes de calcul de haute performance (aussi appelés superordinateurs ou supercalculateurs) qui ont été conçus au cours des dernières années ont une architecture parallèle.
Technologie
Trois facteurs principaux ont contribué à la forte tendance actuelle en faveur du traitement parallèle.
La technologie des circuits a progressé à un tel point qu’il est devenu possible de fabriquer des systèmes complexes nécessitant des millions de transistors sur une seule puce.
On peut alors doubler ou tripler, voire davantage, quelques circuits de calcul sur cette même puce en la munissant de circuits de contrôle veillant à répartir les calculs entre eux, ainsi qu’à éviter les collisions que pourrait impliquer ce parallélisme.
C’est ce que l’on retrouve sur les nouveaux ordinateurs familiaux dotés de puces Intel ou AMD.
Il faut tout de même se poser la question de savoir s’il est nécessaire d’avoir une machine parallèle pour faire du traitement de texte ! Le marketing des fournisseurs d’ordinateurs ou de logiciels vont vouloir vous démontrer que vous en avez besoin, c’est en général rarement le cas.
Vitesse de traitement des ordinateurs
La vitesse des traitements séquentiels traditionnels, basés sur le modèle de von Neumann, semble s’approcher de la limite physique au-delà de laquelle il n’est plus possible d’accélérer. On peut en revanche disposer de :
* plusieurs processeurs dans la même puce,
* plusieurs puces sur la même carte mère,
* plusieurs cartes mères dans le même châssis.
C’est sur ce principe qu’est construit l’ordinateur le plus puissant du moment (2004) : Blue gene.
L’avenir
L’avenir dans le domaine de l’électronique des ordinateurs est tourné vers les nanotechnologies.
Les nanosciences et nanotechnologies peuvent être définies a minima comme l’ensemble des études et des procédés de fabrication et de manipulation de structures, de dispositifs et de systèmes matériels à l’échelle du nanomètre (nm).
Les nanosciences et nanotechnologies sont transversales à plusieurs disciplines scientifiques, telles que l’optique, la biologie, l’électronique, la mécanique et la chimie qui manipulent des objets d’une taille de l’ordre du nanomètre.
En France
La politique française en faveur des nanotechnologies s’appuie sur un programme de développement des nanosciences, piloté par l’Agence nationale de la recherche et mis en oeuvre dans le cadre d’un réseau de recherche et d’innovation technologique, baptisé " RESEAU NATIONAL EN NANOSCIENCES ET EN NANOTECHNOLOGIES " (R3N), dont les trois axes principaux sont :
* le financement de plates-formes scientifiques et technologiques (" grandes centrales ")
* le financement des meilleurs projets "amont", mettant en réseau les laboratoires académiques,
* le financement des meilleurs projets "aval", mettant en réseau des laboratoires publics, des centres de recherche privés de grandes entreprises et des PME innovantes.
Et dont les thématiques principales concernent :
LES NANOBIOSCIENCES, car les nanoparticules, les technologies nanofluidiques et les biochips sont en train de révolutionner les techniques d’imagerie, de diagnostic et de soins, et sont à l’origine de l’émergence de la nanomédecine ; le CEA vient de lancer le projet de pôle "nanobio", en collaboration avec l’Université Joseph Fourier, et assure le pilotage de "Nano2Life", premier réseau d’excellence européen en nanobiotechnologies. Ce réseau d’excellence et le projet de pôle "nanobio", lancés cette année, permettront de répondre aux besoins dans le secteur en croissance rapide des "nanobiosciences".
LES NANOMATERIAUX : parmi eux, les nanotubes de carbone, déjà fabriqués en France ont des propriétés exceptionnelles : ils sont 100 fois plus résistants et 6 fois plus légers que l’acier. Ils confèrent aux matériaux dans lesquels ils sont incorporés des propriétés exceptionnelles. Les nanoparticules d’oxyde de titane sont utilisées pour la réalisation de filtres solaires dans le domaine des cosmétiques ; l’incorporation de particules de silice permet d’accroître la résistance des pneus ;
LA NANOELECTRONIQUE : grâce à l’électronique moléculaire, nous disposerons de mémoires plus importantes et plus petites pour nos ordinateurs, téléphones portables, et PDA du futur. Ils permettront d’accroître de façon spectaculaire la puissance de calcul des ordinateurs : selon les prédictions théoriques, celle-ci pourrait être multipliée par un milliard par rapport aux ordinateurs actuels ! En ce qui concerne les nanocomposants, le CEA a consacré, dès 2005, 16 millions d’euros supplémentaires aux recherches sur les technologies 300 mm ("Nanotec 300"). Au cours de l’année 2006, le pôle MINATEC a été créé. Dédié à la recherche en micro et nanotechnologies, il regroupe sur Grenoble 4000 personnes sur le site du CEA-LETI, pour un investissement total de 170 millions d’euros partagés entre le CEA, l’Etat et les collectivités. Le soutien des projets de recherche coopérative entre des laboratoires de recherche publics et des entreprises est un des axes forts de l’intervention des pouvoirs publics, avec un accompagnement à plusieurs niveaux de la part de ministères (Ministère de la Recherche et des Nouvelles Technologies et Ministère de l’Economie, des Finances et de l’Industrie) et de collectivités territoriales impliquées dans le financement des plates-formes technologiques ainsi que dans les programmes de soutien à la R&D industrielle. La présence des industries françaises dans le domaine des nanotechnologies illustre le dynamisme d’un secteur qui ne s’appuie pas uniquement sur une recherche d’excellence, mais également sur une forte capacité de valorisation et d’industrialisation.
Les entreprises françaises
De nombreuses entreprises ont déjà engagé, sur le territoire français, des programmes de recherche et développement dans le domaine des nanotechnologies. Des exemples comme ceux de ST Microelectronics, Philips et Freescale, à Grenoble mais aussi de Thales, EADS, Alcatel ou Rhodia, voire bien sûr de plus petites entreprises com
me Tracit, "spin-off" du CEA, illustrent la variété et la richesse des applications possibles de ces nouvelles technologies.
Dans le domaine des nanobio : Biomérieux, L’Oréal, quelques entreprises comme ApiBio avec les puces à ADN, commencent à commercialiser les premiers produits des nanobiotechnologies. Dans le domaine des nanomatériaux, plusieurs grands groupes français parmi lesquels EADS, RHODIA, MICHELIN, L’OREAL, ATOFINA, St GOBAIN manifestent déjà leur créativité sur ce marché.
Les enjeux
Les nanotechnologies, dans le domaine de l’électronique sera une révolution plus importante encore que celle que nous avons connus avec l’arrivée du micro-ordinateur et l’Internet dans tous les ménages. Avec les nanotechnologies, les nouvelles technologies de l’électronique et de l’informatique arriveront dans des domaines ou elles n’existent pas aujourd’hui. Celui qui maîtrisera les nanotechnologies maîtrisera une bonne partie des industries de demain.
Ce sont les marchés de fabrication et produits qui innonderont le monde de demain. Il est donc important que la France en tire pleinement les bénéfices de ses capacités dans ce domaine.
La position de la France
Les nanotechnologies ont déjà quitté les laboratoires de recherche pour entrer dans le monde de l’industrie : semi-conducteurs, automobile, aéronautique, industrie pharmaceutique… Elles devraient contribuer à stimuler durablement la croissance mondiale au cours des 15 prochaines années. Pour se préparer à cette nouvelle donne, la France a organisé sa politique de soutiens publics à la R&D et à l’innovation et a mis en place des programmes ambitieux visant à encourager des collaborations entre industriels et laboratoires publics.
La France est déjà un acteur majeur du domaine des nanosciences et des nanotechnologies. C’est dans les laboratoires français et grâce aux travaux d’Albert FERT, que la magnétorésistance géante a été découverte. Elle permet de réaliser des têtes de lectures magnétiques, aujourd’hui produites au rythme de 615 millions par an. Ces têtes de lecture équipent quasiment tous les disques durs des ordinateurs.
La France se classe au cinquième rang mondial en terme de nombre de publications dans le domaine des nanosciences et l’effort financier public place la France au 2ème rang européen derrière l’Allemagne.
Depuis les années 70, le CNRS et le CEA, les deux principaux organismes de recherche en France, se sont forgés une réputation internationale de premier plan, avec des résultats notables dans le domaine des nanotechnologies. Pour dynamiser la position de la France au niveau mondial, les pouvoirs publics ont renforcé et réorganisé la recherche publique française en micro et nanotechnologies dès 1999 avec la mise en place du Réseau National de Micro-NanoTechnologies (RMNT) pour soutenir la collaboration entre recherche publique et recherche industrielle. Ce réseau est largement ouvert à des coopérations étendues avec des sociétés et des organismes de recherche étrangers intéressés à l’échange d’expériences et de compétences dans ce domaine très prometteur. Plus récemment, un réseau de grandes centrales technologiques a été créé et de nombreux projets de recherche coopérative entre laboratoires publics et entreprises ont été lancés.
Le dispositif français de recherche en nanotechnologies s’appuie sur un réseau de grandes centrales technologiques structurées pour doter la France d’une infrastructure de plates-formes de taille suffisante pour affronter les enjeux du développement des nanotechnologies dans les années à venir.
Ce réseau s’articule autour des sites du :
– MINATEC à Grenoble (qui regroupe le CEA/LETI, le CNRS, l’Institut National Polytechnique et l’Université Joseph Fourier),
– Laboratoire d’Analyses et d’Architectures des Systèmes à Toulouse (LAAS),
– Laboratoire de Photonique et de Nanostructures à Marcoussis (LPN) et Institut d’Électronique Fondamentale à Orsay (IEF) (autour de Minerve),
– Institut d’Électronique, de Microélectronique et de Nanotechnologies à Lille (IEMN).
La constitution de ce réseau fait l’objet d’une dotation totale de 210 millions d’euros. Ces centrales ont pour but de donner un nouvel élan au développement technologique de la filière, en activant les interfaces entre la recherche de base et la recherche finalisée. En plus des 4 grandes centrales technologiques, un second cercle composé de 8 autres centrales dotées d’équipements et d’outils spécifiques viennent compléter le réseau national.
De nombreuses entreprises ont déjà engagé, sur le territoire français, des programmes de recherche et développement dans le domaine des nanotechnologies. Des exemples comme ceux de ST Microelectronics, Philips et Freescale, à Grenoble mais aussi de Thales, EADS, Alcatel ou Rhodia, voire bien sûr de plus petites entreprises comme Tracit, "spin-off" du CEA, illustrent la variété et la richesse des applications possibles de ces nouvelles technologies.
Dans le domaine des nanobio : Biomérieux, L’Oréal, quelques entreprises comme ApiBio avec les puces à ADN, commencent à commercialiser les premiers produits des nanobiotechnologies. Dans le domaine des nanomatériaux, plusieurs grands groupes français parmi lesquels EADS, RHODIA, MICHELIN, L’OREAL, ATOFINA, St GOBAIN manifestent déjà leur créativité sur ce marché.
Conclusion
En guise de conclusion, je vais vous citez un exemple d’utilisation de calculs parallèles. Aujourd’hui
les banques française embauchent de jeunes polytechniciens spécialistes en mathématique pour calculer à tout moment ce que doit faire la banque : ces jeunes, en général spécialistes en recherche opérationnelle, utilisent du calcul parallèle et beaucoup d’équations qu’ils affinent au cours du temps, créant ainsi des modèles mathématiques d’analyse du risque des marchés financiers. Et les banques se battent à coup de modèle (sauf la BNP et la SG qui pour le moment se battent pour autre chose, mais c’est une autre histoire …)
Imaginez, si nous pouvions prévoir l’avenir de l’évolution des cours de bourse avec un ordinateur ! Ce serait plutôt extraordinaire. Ce serait presque comme connaître les numéros du Loto avant le tirage. Dans les banques, c’est un peu plus compliqué, ils ne cherchent pas uniquement à prévoir l’avenir, mais surtout à ne pas se tromper. Ces mathématiciens cherchent une sorte d’équation unique, l’équation ultime qui permettrait de faire rentrer toute l’information disponible afin de déterminer ce qui va se passer dans le futur et décider de suite ce qu’il faut faire.
Une fois que l’équation est trouvée, il n’y a plus qu’à aller boire une limonade tranquillement !
Ces « mathématiciens banquiers » sont un peu sur la piste de la Théorie du tout, un vieux rêve de scientifique : Unifier Relativité et quantique, c’est aujourd’hui l’ultime défi des physiciens, qui rêvent depuis toujours d’une formule qui leur donnerait enfin la clé de l’Univers : Selon le physicien Stephen Hawking, si l’équation de l’Univers est un jour formulée sur papier ou disque dur, l’information contenue dans ce modèle aura forcément une existence matérielle et physique à part entière : “ Nous et nos modèles faisons tous les deux partie de l’Univers que nous décrivons ”
L’équation ultime fait donc nécessairement référence à elle-même. Elle pourrait ainsi être dans le même état que la phrase vraie et non démontrable de Gödel : bien qu’elle régisse effectivement l’ensemble des phénomènes de l’Univers, elle pourrait être impossible à formuler !
Le philosophe français Régie Debray s’est ainsi récemment aventuré à en déduire que toute société, aussi rationnelle soit-elle, a besoin d’irrationalité …
En fait, les mathématiques sont déterministes,
on peut introduire une notion de probabilité qui peut être plus ou moins grande, mais il y a une chose difficile à faire tenir, c’est l’irrationalité.
Pour Stephen Hawking, de toute façon, si le théorème de Gödel prouve que la physique théorique fondamentale ne réussira jamais à faire tenir l’Univers en une seule équation, ce sera finalement plutôt une bonne nouvelle : “ Quelques-uns seraient fort désappointés s’il n’existait pas une théorie ultime qui puisse être formulée en un nombre fini de principes. Je suis maintenant heureux que notre quête de la compréhension puisse ne jamais avoir de fin que nous ayons toujours le défi d’une nouvelle découverte à relever ”. Le passé l’a montré : qu’il soit réalisable, ou pas, le projet unificateur est motivant.
Enfin, tout ce que réalisera un ordinateur, qu’il soit parallèle ou non, sera toujours l’exécution de ce qu’un cerveau humain lui a indiqué. Puisse l’humain toujours garder le dessus sur l’utilisation qu’il fait de ces merveilleuses technologies et ne ratons pas les opportuntés de mener les industries mondiales dans ces domaines prometteurs.
la position de l’europe est inexistante sur le sujet et le retard est en dixaines de milliards de $ de R&D et d’une bonne dizaine d’année a mon avis. Regardez le temps qu’a mis AMD pour rattraper sérieusement Intel alors qu’a l’époque les investissements étaient plus faibles pour rentrer sur le marché…
retard à la limite de l’iratrapable à mon avis.
rassurez vous, c’est la même chose pour presque tous les sujets qui touchent a l’électronique et informatique !
SAP, Ilog … ne sont que des exceptions.
Et c’est n’est ni par manque de R&D (nous avions même souvent de l’avance : GSM, Plasma, Visual Basic est né en France…) ni par manque de compétences.
question hors sujet, pourquoi le gouvernement souhaite t-il booster autant le commerce en ligne ? avec une TVA à 25% beaucoup plus de produits et plus massivement seront achetés en ligne. Au moins sur les sites étrangers ! Ca ne semble venir a l’esprit de personne que l’on peut acheter a l’etranger facilement avec une TVA à 0% …
Quelle discussion passionnante ! merci à tous pour ces précieuses informations !
Est-ce que vous seriez tous d’accord pour que je réutilise vos billets pour les publier sur le blog suivant :
heresie.hautetfort.com/
@Anaxagore,
Si des éléments de mon commentaire vous intéressent, servez-vous !
@Yves-Marie
Concernant l’avance de la France, c’est vrai que dans beaucoup de domaines, nous avons eu de l’avance et nous en avons encore un peu dans certains domaines. Ce qui est terrible, c’est d’avoir des idées et de ne pas les commercialiser à temps, de ne pas avoir le rouleau compresseur industriel et marketing qui, derrière l’idée, passe tout de suite à un marché de masse. Pour cela, il faut réunir un nombre de compétences dans un temps très court. Le marché ne nous attend pas. Les américains ont ce marché de masse, les asiatiques ont les coûts de main d’oeuvre leur permettant de prendre des risques financiers plus limités. Nous, nous avons beaucoup de murs. Ils sont idéologiques (notre culture n’accepte pas l’échec, il n’y a qu’à voir le départ de France de Loic Le Meur, il est assez révélateur. Ces murs sont aussi liés au manque de repères dans le temps, mais c’est le cas dans tous les pays industrialisés je pense. Ce manque de repères ne permet pas d’inscrire des démarches à moyen/long terme. La grande majorité des entreprise a une visibilité de son activité très réduite, ce qui ne permet pas d’avoir une stratégie de long terme.
Aujourd’hui, seules les grandes entreprises s’en sortent bien en France. Pour les PME/PMI c’est une catastrophe.
Pour reprendre les 3 exemples que vous citez :
– le GSM : aujourd’hui, à part SFR qui maintient un choix Alcatel dans ses équipements, les autres utilisent du matériel Chinois alors que nous sommes à l’origine du GSM.
– Plasma : inventé en France. Où sont fabriqués aujourd’hui les écrans Plasma ? Qui a "emprunté" nos brevets ? Les asiatiques
– Visual Basic : Repris par Microsoft qui a une telle puissance financière et de lobbying qu’il est reçu par Nicolas Sarkozy, alors ministre de l’intérieur, comme un chef d’état. Et les français dans tout cela ? Obligés d’acheter des licences de produits qu’ils ont inventés.
Ne soyons pas pessimisme, nous pouvons nous en sortir. Mais, pour cela, nous devons le vouloir collectivement et ne pas zigzaguer.
Le principe du calcul parallèle est simple.
Un ordinateur classique exécute une suite d’opérations, les unes à la suite des autres (on dit : exécution séquentielle). La fréquence des microprocesseurs (Intel Pentium 4, etc.), tant mise en avant dans les publicité, désigne grosso modo la vitesse d’exécution de ces opérations (en fait c’est plus compliqué, mais faisons simple).
Depuis 25 ans, la fréquence des microprocesseurs n’a fait qu’augmenter. Cependant, elle bute maintenant sur divers problèmes, notamment la consommation électrique et son corollaire, la dissipation de chaleur. Un microprocesseur de micro-ordinateur actuel a besoin pour fonctionner correctement d’un radiateur et d’un ventilateur de refroidissement. Il semble que l’on soit aux limites de ce que l’on peut faire sans recourir à des moyens lourds (refroidissements par liquides, jonctions Peltier). Enfin, je dis ça sous réserves, car le matériel n’est pas ma spécialité.
En voyant cela, on se dit qu’au lieu de s’embêter à faire un microprocesseur qui va deux fois plus rapidement (d’où très forte consommation et dissipation d’énergie), on devrait plutôt faire deux processeurs (ou plus) fonctionnant en parallèle. C’est ce qui se fait de nos jours avec les processeurs multi-cœurs.
Tout le problème est alors de diviser le travail de façon intelligente. Toute personne qui a travaillé en groupe sait bien qu’on est bloqué par le maillon le plus lent de la chaîne. Si l’on a deux processeurs A et B, B traitant les données sortant de A, et que l’un des deux met plus de temps que l’autre pour traiter un lot de données, alors le système n’est pas utilisé optimalement.
Ce problème de division du travail et d’agencement de la transmission des données est en général difficile. C’est ce qui explique que traditionnellement les systèmes parallèles étaient réservés à un marché étroit, principalement le calcul scientifique (lire ici : les simulations numériques pour applications militaires et industrielles). Ils étaient malaisés à programmer et à maintenir.
Maintenant, en raison du "mur de la chaleur" qui bloque la montée en fréquence des solutions séquentielles, on est bien forcé de passer à des solutions parallèles y compris au niveau du marché de masse.
J’insiste sur le fait que la programmation parallèle est difficile. Au lieu d’une exécution séquentielle, souvent assez prédictible, on trouve un amas de processeurs non synchronisés; le résultat l’exécution des programmes devient alors tributaire de hasards divers. L’expérience montre que les programmes parallèles sont souvent bogués!
"Ici comme en d’autres secteurs, il faut bien se souvenir que la puissance publique n’a jamais produit par elle-même la crème de l’innovation technologique, tout simplement parce que ce n’est pas son point fort."
La recherche publique en informatique est menée au gré de caprices budgétaires et de modes décidées d’en haut, et, contrairement aux États-Unis, il n’y a pas derrière le tissu industriel de PME qui pourrait en utiliser les fruits. Trop souvent, les pouvoirs publics ne voient que les quelques grands groupes, toujours les mêmes…