L'encyclopédie des Sciences
  Théorie de la Démonstration
 

Introduction HISTORIQUE

Auteur de l'introduction : Dr. Angel Brucena pour Sciences.ch

La théorie de la démonstration, aussi connue sous le nom de théorie de la preuve, est une branche de la logique mathématique. Elle a été fondée par David Hilbert au début du 20èME siècle.

Mais avant, nous vous proposons un voyage à travers de l'histoire de la Logique, depuis les origines à nos jours.

CHRONOLOGIE

Cette histoire commence dans le monde Grec (cela veut dire : côte Anatolie,  Grèce continental et les îles, Macédoine, Sicile, Sud Italie), au 6ème siècle av. J.C., c'est-à-dire dans la période présocratique.

Héraclite d'Ephèse (550-480 av. J.C.) développe les concepts comme le devenir : "Rien n’est, tout devient", la fuite du temps. Rien ne peut être pensé sans son contraire. Il développe la sophistique, tout l'art de soutenir avec conviction n'importe quelle thèse.

Parménide d'Elée à la même époque (515-440 av. J.C.) développe deux principes :

P1. Le principe de non-contradiction : il est impossible d'affirmer une chose et de la nier en même temps.

P2. Le principe d'identité : Une chose est ce qu'elle est.

Un peu plus tard, Zénon d’Elée (490-430 av. J.C.), inventeur de la dialectique, art d'argumentation formule les paradoxes de : "Achille et de la tortue" et de "la flèche à la fois en mouvement et immobile". Il utilise dans ses discussions philosophiques la réduction à l'impossible (raisonnement par l'absurde).

Nous arrivons au enfin au "Père de la Logique" qui est communément admis comme étant Aristote (384-344 av. J.C.).

Ses œuvres de logique sont groupées dans le Organon, (instrument). Il considère que la logique n'est pas une science comme la physique, sinon un instrument, c'est l’art de raisonner.

Il développe :

- La théorie des propositions (sujet, copule et prédicat),

- Les notions de quantité : universelle ou particulière, et de qualité : affirmative ou négative,

- le raisonnement ou inférence : à partir des prémisses déduire la conclusion, donc les inférences complexes ou syllogismes.

Citons encore quelques autres écoles importantes, celle de Mégare (5ème siècle av. J.C.), avec le paradoxe du menteur et l'école Stoïcienne (4ème siècle av. J.C., Stoa : Portique), ils développent les propositions composées et les connecteurs logiques (que nous verrons lors de la partie théorique) : "implication", "et", "ou" et les inférences "Modus ponens" et "Modus tollens".

DE L'ANTIQUITÉ AU MOYEN ÂGE

Beaucoup plus tard, Apulée (2ème siècle de Numidie) développe le "Carré logique" des propositions d'Aristote (carré qui représente les oppositions logiques entre les différentes propositions).

Soit sous forme mathématique :

Beaucoup plus tard encore, Pierre Abélard (1079-1142), élabore un manuel de logique Dialectica, grand professeur de Théologie et de Logique, il formalise les propositions d’Aristote, en les renommant à travers des lettres : Les quatre premières voyelles de l'alphabet latin A (tous les x sont Px n'est P – universelle négative), I (au moins un x est P – particulière affirmative), O (il y a au moins un x qui n'est pas P – particulière négative) qui désignent habituellement ces propositions proviendraient des mots latin AffIrmo et nEgO (j'affirme, je nie). – universelle affirmative), E (aucun

Un peu plus tard, Pierre d'Espagne (13ème siècle), développe une grande pédagogie dans l'enseignement de la logique. Il défini les fameuses formules mnémotechniques pour décrire les 19 modes de syllogismes : bArbArA, cElArEnt, dArII ….

- bArbArA: tout M est P, or tout S est M, donc tout S est P

- cElArEnt: aucun M n'est P, or tout S est M, donc aucun S n'est P

- dArII : tout M est P, or quelque S est M, donc quelque S est P

- fErIO: aucun M n'est P, or quelque S est M, donc quelque S n'est pas P
….

LOGIQUE CLASSIQUE

La logique de Port Royal, les grammairiens Antoine Arnauld et Pierre Nicole (abbaye de Port Royal) vont écrire La Logique ou l'art de penser (1662), ouvrage pédagogique, avec des exemples concrets en géométrie, en littérature, ….

Puis, nous arrivons à celui communément reconnu comme le père de la logique symbolique Gottfried Wilhelm Leibniz (1646-1716). C'est un visionnaire dans le domaine de logique à partir du syllogisme d'Aristote il imagine un calculateur logique "Calculus rationator" et une langue idéographique "Lingua caracteristica universalis".

NAISSANCE DE LA LOGIQUE MODERNE

La logique symbolique, ancrée dans un rapport étroit avec la mathématique est née en Angleterre au milieu du 19ème siècle, avec George Boole et Auguste Morgan (cf. chapitre de Systèmes Logiques Lormels).

Mais la logique contemporaine a vu le jour en 1879, grâce au mathématicien, logicien et philosophe Gottlob Frege. Frege est certainement un des plus grands logiciens depuis Aristote et Leibniz. Il a créé la logique moderne et plus précisément le calcul propositionnel moderne le calcul des prédicats (voir la partie théorique plus loin),. Il a en outre créé une langue artificielle (notée au moyen des symboles logiques qui a inspiré toutes les logiques postérieures), il a formalisé entièrement la logique et en a fait par là un véritable calcul logique.

Il est en outre l'un des plus importants partisans du logicisme (théorie selon laquelle les mathématiques sont une extension de la logique et donc que toutes les mathématiques sont réductibles à la logique) : c'est à la suite de son ouvrage, Grundgesetze der Arithmetik, où il tente de dériver l'arithmétique de la logique, que Russell lui fait parvenir le paradoxe qui porte son nom.

Par la suite Bertrand Arthur William Russell (1872-1970) a réfuté la théorie des ensembles ainsi que la logique de Gottlob Frege en découvrant un paradoxe qui porte désormais son nom (paradoxe de Russell), dont nous pouvons donner diverses versions en langage ordinaire, dont le paradoxe du barbier (qui rase tous ceux et uniquement ceux, qui ne se rasent pas eux-mêmes -- situation qui engendre la question insoluble: ce barbier se rase-t-il?). Il comprit l'importance de ces paradoxes en 1901, alors qu'il travaillait sur le livre Principes des mathématiques (1903). Pour les résoudre, Russell créa la théorie des types : les espèces logiques sont hiérarchisées et aucune fonction logique ne peut s'appliquer à des objets ayant son propre type. Ceci mit fin aux espoirs de réduction de l'arithmétique à la logique.

AXIOMATIQUE FORMELLE ET PROGRAMME DE HILBERT

Après la découverte des paradoxes, en logique et en théorie des ensembles, et les polémiques qui en ont découlé, la méthode axiomatique s'est précisée.

En 1899, David Hilbert publie les Fondements de la géométrie, établissant une axiomatique formelle. Il n'a pas donné de définitions explicites des point, droite,.. de la géométrie, mais des définitions implicites :    ces entités sont caractérisées par le système d'axiomes dans sa totalité. La comparaison classique est celle du jeu d'échecs : les signes sont les pièces du jeu, les axiomes sont les règles et les théorèmes sont les situations permises par ces règles. Enfin, passer logiquement d'un théorème à un autre est comme un coup permis par les règles.

Dans une axiomatique formelle, un axiome n'a donc plus à être intuitif, vrai, .. mais à être cohérent avec les autres axiomes du système. Il faudra donc démontrer la cohérence, la consistance ou la non-contradiction (ces termes sont synonymes) d'un système formel. C'est le premier aspect du programme de Hilbert, qui prendra peu à peu corps dans les années 1920.

Cela suppose de porter un regard global sur la mathématique. C'est ce que nous appelons la "métamathématique". Pour simplifier, elle est le discours formalisé sur la mathématique, une sorte de mathématique de la mathématique. Hilbert voyant la métamathématique comme une manipulation mécanique de symboles conformément à des règles, le second aspect de son programme, étroitement lié au premier, apparaît : mécaniser le raisonnement, en le réduisant à un pur calcul sur des signes.

Des deux volets du programme de Hilbert est née la "théorie de la démonstration", qui ne consiste pas à formaliser telle ou telle démonstration particulière, mais à donner les règles formelles de validité d’une démonstration en général. Pour Hilbert, les démonstrations sont des suites finies de formules.

En définitive, le programme de Hilbert suppose que nous puissions faire de l'arithmétique, et donc des mathématiques, un système purement formel. Mais il faut alors s'assurer que tout système formel est : consistant/cohérent, ou non contradictoire, complet et décidable. Ces trois points sont étroitement liés, le dernier concernant directement le problème de la décision.

Le programme de Hilbert va connaître quelques succès. Citons ceux de Wilhelm Ackermann (1896-1962), un élève de Hilbert, et de Jacques Herbrand (1908-1931) pour une partie de l'arithmétique, avec pour ce dernier, un résultat central sur le calcul des prédicats.

En 1928, Hilbert et Ackermann, auteurs en 1923 du premier manuel de logique moderne, ont démontré la consistance du calcul des prédicats du premier ordre, ainsi appelé parce que les quantificateurs n'y portent que sur des variables individus.

Cet objectif a été invalidé par le non moins célèbre théorème d'incomplétude de Gödel.

DATES CLÉS

- 384-344 av. J.C. : Aristote regroupe ses œuvres de logique dans le Organon.
- 1300 :  Pierre d'Espagne, développe les fameuses formules mnémotechniques pour décrire les modes des syllogismes : BARBARA, CELARENT, DARII, FERIO,…
- 1700 : Gottfried Wilhelm Leibniz, imagine un calculateur logique "Calculus rationator" et une langue idéographique "Lingua caracteristica universalis".
- 1879 : Gottlob Frege  propose une première version de l’idéographie dans Begriffsshrift
- 1884 : Gottlob Frege  publie les Fondements de l’arithmétique, où est exposée sa théorie des entiers naturels.
- 1899 : David Hilbert publie les Fondements de la géométrie, établissant une axiomatique formelle.
- 1900 : David Hilbert propose nouvelle discipline mathématique, la théorie de la démonstration,  lors de son célèbre exposé au 2e Congrès international de mathématiques avec pour objectif de résoudre le problème de la cohérence des mathématiques.
- 1910 : Bertrand Arthur William Russell écrit avec Alfred North Whitehead les Principia Mathematica
- 1934 : Gerhard Gentzen a démontré son Hauptsatz (théorème principal) dans ses Recherches sur la déduction logique.
.Cet ouvrage fondateur a l'ambition d'effectuer la réduction de l'ensemble des mathématiques à la logique.

PERSPECTIVES /TENDANCES

Après une période de calme, qui a tout de même permis d'établir un certain nombre d'autres résultats de cohérence relative et d'esquisser une classification des théories axiomatiques, la théorie de la démonstration a connu une renaissance spectaculaire au cours des années 1960 avec la découverte de la correspondance de Curry-Howard .

Cette correspondance est très féconde et profonde entre les notions de théorie de démonstration et celles de programmation

Depuis, la théorie de la démonstration s'est développée en étroite symbiose avec d'autres domaines de la logique et de l'informatique théorique, notamment le lambda-calcul, et a donné naissance à de nouveaux modèles du calcul, le plus récent étant la logique linéaire de Jean-Yves Girard en 1986. Aujourd'hui, une partie de la théorie de la démonstration se confond avec la sémantique des langages de programmation et interagit avec de nombreuses autres disciplines de la logique ou de l'informatique théorique.

SYNTHÈSE

En conclusion, nous pouvons dire que nous assistons actuellement, à l'émergence d’un domaine tout à fait fascinant, où les concepts de fonction et de programme jouent un rôle clé. Il est clair que nous tenons là un fil conducteur extrêmement solide, qui est en train de nous mener à une compréhension en profondeur des mécanismes et de la nature même du raisonnement mathématique. Un autre trait étonnant de ce domaine est que, malgré son caractère extrêmement abstrait, il soit en prise directe avec les applications. Il faut d'ailleurs remarquer que certaines des idées essentielles qui permettent cette analyse, nous viennent, non pas des mathématiques ou de la logique, mais directement de la programmation et de l’informatique.

Nous avons choisi de commencer l'étude de la physique-mathématique (ou mathématique appliquée) par la théorie qui nous semble la plus fondamentale et la plus importante dans le domaine des sciences pures et exactes.

La théorie de la démonstration et du calcul propositionnel (logique) a trois objectifs dans le cadre de ce site :

1. Apprendre au lecteur comment raisonner et à démontrer et cela indépendamment de la spécialisation étudiée

2. Démontrer qu'une démonstration (son processus) est indépendante du langage utilisé

3. Se préparer à la théorie de la logique et au théorème d'incomplétude de Gödel ainsi qu'aux automates (cf. chapitre d'Informatique Théorique)

Remarques:

R1. Il est (très) fortement conseillé de lire en parallèle à ce chapitre, ceux sur la théorie des automates et de l'algèbre de Boole disponible dans la section d'informatique théorique du site.

R2. Il faut prendre cette théorie comme une curiosité sympathique mais qui n'amène fondalement pas grand chose excepté des méthodes de travail/raisonnement.

R3. Par ailleurs, son objectif n'est pas de démontrer que tout est démontrable mais que toute démonstration peut se faire sur un langage commun à partire d'un certain nombre de règles.

Souvent, quand un étudiant arrive dans une classe supérieure, il a surtout appris à calculer, à utiliser des algorithmes. Il a très peu appris à raisonner. Pour tous les raisonnements, le support visuel est fort, et les personnes qui ne voient pas qu'en traçant telle ou telle courbe droite la solution apparaît ou qui ne voient pas dans l'espace sont très pénalisées.

Lors des études secondaires, nous manipulons déjà des objets inconnus, mais c'est surtout pour faire des calculs, et quand nous raisonnons sur des objets représentés par des lettres, nous pouvons remplacer ceux-ci visuellement par un nombre réel, un vecteur, etc. A partir d'un certain niveau, nous demandons aux personnes de raisonner sur des structures plus abstraites, et donc de travailler sur des objets inconnus qui sont des éléments d'un ensemble lui-même inconnu, par exemple les éléments d'un groupe quelconque (cf. chapitre de Théorie Des Ensembles). Ce support visuel n'existe alors plus.

Nous demandons ainsi souvant aux étudiants de raisonner, de démontrer des propriétés, mais personne ne leur a jamais appris à raisonner convenablement, à écrire des preuves. Si nous demandons à un étudiant de licence de mathématiques ce qu'est une démonstration, il a quelque difficulté à répondre. Il peut dire que c'est un texte dans lequel on trouve des "mots clés": "donc", "parce que", "si", "si et seulement si", "prenons un x tel que", "supposons que", "cherchons une contradiction", etc. Mais il est incapable de donner la grammaire de ces textes  ni même ces rudiments, et d'ailleurs, ses enseignants, s'ils n'ont pas suivi de cours, en seraient probablement incapables aussi.

Pour comprendre cette situation, rappelons que pour parler un enfant n'a pas besoin de connaître la grammaire. Il imite son entourage et cela marche très bien : un enfant de six ans sait utiliser des phrases déjà compliquées quant à la structure grammaticale sans avoir jamais fait de grammaire. La plupart des enseignants ne connaissent pas non plus la grammaire du raisonnement mais, chez eux, le processus d'imitation a bien marché et ils raisonnent correctement. L'expérience de la majorité des enseignants d'université montre que ce processus d'imitation marche bien chez les très bons étudiants, et alors il est suffisant, mais il marche beaucoup moins bien, voire pas du tout, chez beaucoup d'autres.

Tant que le degré de complexité est faible (notamment lors d'un raisonnement de type "équationnel"), la grammaire ne sert à rien, mais quand il augmente ou quand on ne comprend pas pourquoi quelque chose est faux, il devient nécessaire de faire un peu de grammaire pour pouvoir progresser. Les enseignants et les étudiants connaissent bien la situation suivante: dans un devoir, le correcteur a barré toute une page d'un grand trait rouge et mis "faux" dans la marge. Quand l'étudiant demande ce qui est faux, le correcteur ne peut que dire des choses du genre "ça n'a aucun rapport avec la démonstration demandée", "rien n'est juste", …, ce qui n'aide évidemment pas l'étudiant à comprendre. Cela vient en partie, du fait que le texte rédigé par l'étudiant utilise les mots voulus mais dans un ordre plus ou moins aléatoire et qu'on ne peut donner de sens à l'assemblage de ces mots. De plus, l'enseignant n'a pas les outils nécessaires pour pouvoir expliquer ce qui ne va pas. Il faut donc les lui donner!

Ces outils existent mais sont assez récents. La théorie de la démonstration est une branche de la logique mathématique dont l'origine est la crise des fondements : il y a eu un doute sur ce que nous avions avait le "droit" de faire dans un raisonnement mathématique (voir la "crise des fondements" plus loin). Des paradoxes sont apparus (à tel point que certains mathématiciens sont devenus fous), et il a alors été nécessaire de préciser les règles de démonstration et de vérifier que ces règles ne sont pas contradictoires . Cette théorie est apparue il y a environ un siècle, ce qui est très peu puisque l'essentiel des mathématiques enseignées en première moitié de l'université est connu depuis deux ou trois cents ans.

LA CRISE DES FONDEMENTS

Pour les premiers Grecs, la géométrie était considérée comme la forme la plus haute du savoir, une puissante clé pour les mystères métaphysiques de l’Univers. Elle était plutôt une croyance mystique, et le lien entre le mysticisme et la religion était rendu explicite dans des cultes comme ceux des Pythagoriciens. Aucune culture n’a depuis déifié un homme pour avoir découvert un théorème géométrique! Plus tard, les mathématiques furent considérées comme le modèle d’une connaissance a priori dans la tradition aristotélicienne du rationalisme.

L’étonnement des Grecs pour les mathématiques ne nous a pas quitté, on le retrouve sous la traditionnelle métaphore des mathématiques comme "Reine des Science". Il s’est renforcé avec les succès spectaculaires des modèles mathématiques dans la science, succès que les Grecs (ignorant même la simple algèbre) n’avaient pas prévus. Depuis la découverte par Isaac Newton du calcul intégral et de la loi du carré inverse de la gravité, à la fin des années 1600, les sciences phénoménales et les plus hautes mathématiques étaient restées en étroite symbiose - au point qu’un formalisme mathématique prédictif était devenu le signe distinctif d’une "science dure".

Après Newton, pendant les deux siècles qui suivirent, la science aspira à ce genre de rigueur et de pureté qui semblaient inhérentes aux mathématiques. La question métaphysique semblait simple ; les mathématiques possédaient une connaissance a priori parfaite, et parmi les sciences, celles qui étaient capables de se mathématiser le plus parfaitement étaient les plus efficaces pour la prédiction des phénomènes . La connaissance parfaite consistait donc dans un formalisme mathématique qui, une fois atteint par la science et embrassant tous les aspects de la réalité, pouvait fonder une connaissance empirique a postériori sur une logique rationnelle a priori. Ce fut dans cet esprit que Jean-Antoine Nicolas de Cartitat, marquis de Condorcet (philosophe et mathématicien français), entreprit d’imaginer la description de l’Univers entier comme un ensemble d’équation différentielles partielles se résolvant les unes par les autres.

La première faille dans cette image inspiratrice apparut dans la seconde moitié du 19ème siècle, quand Riemann et Lobachevsky prouvèrent séparément que l’axiome des parallèles d’Euclides pouvait être remplacé par d’autres qui produisaient des géométries "consistantes" (nous reviendrons sur ce terme plus loin). La géométrie de Riemann prenait modèle sur une sphère, celle de Lobachevsky, sur la rotation d'un hyperboloïde.

L’impact de cette découverte a été obscurci plus tard par de grands chamboulements, mais sur le moment, il fut un coup de tonnerre dans le monde intellectuel. L’existence de systèmes axiomatiques mutuellement inconsistants, et dont chacun pouvait servir de modèle à l’Univers phénoménal, remettait entièrement en question la relation entre les mathématiques et la théorie physique.

Quand on ne connaissait qu’Euclide, il n’y avait qu’une géométrie possible. On pouvait croire que les axiomes d’Euclide constituaient un genre de connaissance parfaite a priori sur la géométrie dans le monde phénoménal. Mais soudain, nous avons eu trois géométries, embarrassantes pour les subtilités métaphysique.

Pourquoi aurions-nous à choisir entre les axiomes de la géométrie plane, sphérique et hyperbolique comme descriptions de la géométrie du réel? Parce que toutes les trois sont consistantes, nous ne pouvons en choisir aucune comme fondement a priori - le choix doit devenir empirique, basé sur leur pouvoir prédictif dans une situation donnée.

Bien sûr, Les théoriciens de la physique ont longtemps été habitués à choisir des formalismes pour poser un problème scientifique. Mais il était admis largement, si ce n’est inconsciemment, que la nécessité de procéder ainsi ad hoc était fonction de l’ignorance humaine, et, qu’avec de la logique ou des mathématiques assez bonnes, on pouvait déduire le bon choix à partir de premiers principes, et produire des descriptions a priori de la réalité, qui devaient être confirmées après coup par une vérification empirique.

Cependant, la géométrie euclidienne, considérée pendant deux cents ans comme le modèle de la perfection axiomatique des mathématiques, avait été détrônée. Si l’on ne pouvait connaître a priori quelque chose d’aussi fondamental que la géométrie dans l’espace, quel espoir restait-il pour une pure théorie rationnelle qui embrasserait la totalité de la nature ? Psychologiquement, Riemann et lobachevsky avaient frappé au cœur de l’entreprise mathématique telle qu’elle avait été conçue jusqu’alors.

De plus, Riemann et Lobachevsky remettaient la nature de l’intuition mathématique en question. Il avait été facile de croire implicitement que l’intuition mathématique était une forme de perception - une façon d’entrevoir le noumène platonicien derrière la réalité. Mais avec deux autres géométries qui bousculaient celle d’Euclide, personne ne pouvait plus être sûr de savoir à quoi le noumène ressemblait.

Les mathématiciens répondirent à ce double problème avec un excès de rigueur, en essayant d’appliquer la méthode axiomatique à toute les mathématiques. Il fut progressivement découvert que la croyance en l’intuition mathématique comme à une sorte de perception d’un monde nouménal avait encouragé la négligence ; dans la période pré-axiomatique, les preuves reposaient souvent sur des intuitions communément admises de la "réalité" mathématique, qui ne pouvaient plus être considérées automatiquement comme valides.

La nouvelle façon de penser les mathématiques conduisait à une série de succès spectaculaires, parmi lesquelles la théorie des ensembles de Cantor, l’axiomatisation des nombres de Frege, et éventuellement, la monumentale synthèse des Principia Mathematica de Russell et Whitehead. Pourtant cela avait aussi un prix. La méthode axiomatique rendait la connexion entre les mathématiques et la réalité phénoménale toujours plus étroite. En même temps, des découvertes suggéraient que les axiomes mathématiques qui semblaient être consistants avec l’expérience phénoménale pouvait entraîner de vertigineuses contradictions avec cette expérience.

La majorité des mathématiciens devinrent rapidement des "formalistes", soutenant que les mathématiques pures ne pouvaient qu’être considérées philosophiquement comme une sorte de jeu élaboré qui se jouait avec des signes sur le papier (c’est la théorie qui sous-tend la prophétique qualification des mathématiques de "système à contenu nul" par Robert Heinlein). La croyance "platonicienne" en la réalité nouménale des objets mathématiques, à l’ancienne manière, semblait bonne pour la poubelle, malgré le fait que les mathématiciens continuaient à se sentir comme les platoniciens durant le processus de découverte des mathématiques.

Philosophiquement, donc, la méthode axiomatique conduisait la plupart des mathématiciens à abandonner les croyances antérieures en la spécificité métaphysique des mathématiques. Elle produisit aussi la rupture contemporaine entre les mathématiques pures et appliquées. La plupart des grands mathématiciens du début de la période moderne - Newton, Leibniz, Fourier, Gauss et les autres - s’occupaient aussi de science phénoménale. La méthode axiomatique avait couvé l’idée moderne du mathématicien pur comme un super esthète, insoucieux de la physique. Ironiquement, le formalisme donnait aux purs mathématiciens un mauvais penchant à l’attitude platonicienne. Les chercheurs en mathématiques appliquées cessèrent de côtoyer les physiciens et apprirent à se mettre à leur traîne.

Ceci nous emmène au début du 20ème siècle. Pour la minorité assiégée des platoniciens, le pire était encore à venir. Cantor, Frege, Russell et Whitehead montrèrent que toutes les mathématiques pures pouvaient être construites sur le simple fondement axiomatique de la théorie des ensembles. Cela convenait parfaitement aux formalistes ; les mathématiques se réunifiaient, du moins en principe, à partir d’un faisceau de petits jeux détachés d’un grand. Les platoniciens aussi étaient satisfaisaits ; s’il en survenait une grande structure, clé de voûte consistante pour toutes les mathématiques, la spécificité métaphysique des mathématiques pouvait encore être sauvée.

D’une façon négative, pourtant, un platonicien eut le dernier mot. Kurt Godel mit son grain de sable dans le programme formaliste d’axiomatisation quand il démontra que tout système d’axiomes assez puissant pour inclure les entiers devait être soit inconsistant (contenir des contradictions) soit incomplet (trop faible pour décider de la justesse ou de la fausseté de certaines affirmations du système). Et c’est plus ou moins où en sont les choses aujourd’hui. Les mathématiciens savent que de nombreuses tentatives pour faire avancer les mathématiques comme une connaissance a priori de l’Univers doivent se heurter à de nombreux paradoxes et à l’impossibilité de décider quel système axiomatique décrit les mathématiques réelles. Ils ont été réduits à espérer que les axiomatisations standard ne soient pas inconsistantes mais incomplètes, et à se demander anxieusement quelles contradictions ou quels théorèmes indémontrables attendent d’être découverts ailleurs, cachés comme des champs de mines dans la noosphère.

Cependant, sur le front de l’empirisme, les mathématiques étaient toujours un succès spectaculaire en tant qu’outil de construction théorique. Les grands succès de la physique du 20ème siècle (la relativité générale et la physique quantique) poussaient si loin hors du royaume de l’intuition physique, qu’ils ne pouvaient être compris qu’en méditant profondément sur leurs formalismes mathématiques, et en prolongeant leurs conclusions logiques, même lorsque ces conclusions semblaient sauvagement bizarres. Quelle ironie. Au moment même où la perception mathématique en venait à paraître toujours moins fiable dans les mathématiques pures, elle devenait toujours plus indispensable dans les sciences phénoménales.

À l’opposé de cet arrière-plan, l’applicabilité des mathématiques à la science phénoménale pose un problème plus épineux qu’il n’apparaît d’abord. Le rapport entre les modèles mathématiques et la prédiction des phénomènes est complexe, pas seulement dans la pratique mais dans le principe. D’autant plus complexe que, comme nous le savons maintenant, il y a des façons d’axiomatiser les mathématiques qui s’excluent!

Mais pourquoi existe-t-il seulement de bons choix de modèle mathématique ? C’est à dire, pourquoi y a-t-il un formalisme mathématique, par exemple pour la physique quantique, si productif qu’il prédit réellement la découverte de nouvelles particules observables ?

Pour répondreà cette question on observera qu’elle peut, aussi bien, fonctionner comme une sorte de définition. Pour beaucoup de système phénoménaux, de tels formalismes prédictifs exacts n’ont pas été trouvés, et aucun ne semble plausible. Les poètes aiment marmonner sur le cœur des hommes, mais on peut trouver des exemples plus ordinaires : le climat, où le comportement d’une économie supérieure à celle d’un village, par exemple - systèmes si chaotiquement interdépendants que la prédiction exacte est effectivement impossible (pas seulement dans les faits mais en principe).

PARADOXES

Dès l'antiquité, certains logiciens avaient constaté la présence de nombreux paradoxes au sein de la rationalité. En fait, nous pouvons dire que malgré leur nombre, ces paradoxes ne sont que les illustrations d'un petit nombre de structures paradoxales. Attardons nous à exposer à titre de culture de générale les plus connus.

Exemples:

E1. Le paradoxe de la classe des classes (Russell)

Il existe deux types de classes : celles qui se contiennent elles-mêmes (ou classes réflexives : la classe des ensembles non-vides, la classe des classes,...) et celles qui ne se contiennent pas elles-mêmes (ou classes irréflexives : la classe des travaux à rendre, la classe des oranges sanguines, ...). La question posée est la suivante : la classe des classes irréflexives est-elle elle même réflexive ou irréflexive? Si elle est réflexive, elle se contient et se trouve rangée dans la classe des classes irréflexives qu'elle constitue, ce qui est contradictoire. Si elle est irréflexive, elle doit figurer dans la classe des classes irréflexives qu'elle constitue et devient ipso facto réflexive, nous sommes face à une nouvelle contradiction.

E2. Le paradoxe du bibliothécaire (Gonseth)

Dans une bibliothèque, il existe deux types de catalogues. Ceux qui se mentionnent eux-mêmes et ceux qui ne se mentionnent pas. Un bibliothécaire doit dresser le catalogue de tous les catalogues qui ne se mentionnent pas eux-mêmes. Arrivé au terme de son travail, notre bibliothécaire se demande s'il convient ou non de mentionner le catalogue qu'il est précisément en train de rédiger. A ce moment, il est frappé de perplexité. Si ne le mentionne pas, ce catalogue sera un catalogue qui ne se mentionne pas et qui devra dès lors figurer dans la liste des catalogues ne se mentionnant pas eux-mêmes. D'un autre côté, s'il le mentionne, ce catalogue deviendra un catalogue qui se mentionne et qui ne doit donc pas figurer dans ce catalogue, puisque celui-ci est le catalogue des catalogues qui ne se mentionnent pas.

E3. Le paradoxe du menteur (variante)

Définissons provisoirement le mensonge comme l'action de formuler une proposition fausse. Le poète crétois Epiménide affirme : "Tous les Crétois sont des menteurs", soit la proposition P. Comment décider de la valeur de vérité de P ? Si P est vraie, comme Epiménide est Crétois, P doit être fausse. Il faut donc que P soit fausse pour pouvoir être vraie, ce qui est contradictoire. P est donc fausse. Remarquons qu'on ne peut pas en déduire, comme dans le véritable paradoxe du menteur, que P doit aussi être vraie.

RAISONNEMENT HYPOTHETICO-DEDUCTIF

Le raisonnement hypothético-déductif est, nous le savons, la capacité qu'a l'apprenant de déduire des conclusions à partir de pures hypothèses et pas seulement d'une observation réelle. C'est un processus de réflexion qui tente de dégager une explication causale d'un phénomène quelconque (nous y reviendrons lors de nos premiers pas en physique). L'apprenant qui utilise ce type de raisonnement commence par formuler une hypothèse et essaie ensuite de confirmer ou d'infirmer son hypothèse selon le schémas synoptique ci-dessous :


  
(1)

La procédure déductive consiste à tenir pour vrai, à titre provisoire, cette proposition première que nous appelons, en logique "le prédicat" (voir plus bas) et à en tirer toutes les conséquences logiquement nécessaires, c'est-à-dire à en rechercher les implications. 

Exemple:

Soit la proposition P : " X est un homme", elle implique la proposition suivante Q : X est mortel.

L'expression  (si c'est un homme il est nécessairement mortel) est un implication prédicative (d'où le terme "prédicat"). Il n’y a pas dans cet exemple de cas où nous puissions énoncer P sans Q. Cet exemple est celui d’une implication stricte, telle que nous la trouvons dans le "syllogisme" (figure logique du raisonnement).

Remarque: Des spécialistes ont montré que le raisonnement  hypothético-déductif  s’élabore progressivement chez l’enfant, à partir de 6-7ans, et que ce type de raisonnement n’est utilisé systématiquement, en partant d’une fonction propositionnelle stricte qu’à partir de 11-12 ans.

CALCUL PROPOSITIONNEL

Le "calcul propositionnel" (ou "logique propositionnelle") est un préliminaire absolument indispensable pour aborder une formation en sciences, philosophie, droit, politique, économie, etc. Ce type de calcul autorise des procédures de décision ou tests. Ceux-ci permettent de déterminer dans quel cas un expression (proposition) logique est vraie et en particulier si elle est toujours vraie.

Définitions:

D1. Une expression toujours vraie quel que soit le contenu linguistique des variables qui la composent est appelée une "expression valide", une "tautologie", ou encore une "loi de la logique propositionnelle".

D2. Un expression toujours fausse est appelée une "contradiction" ou "antologie"

D3. Une expression qui est parfois vraie, parfois fausse est appelée une "expression contingente"

D4. Nous appelons "assertion" une expression dont nous pouvons dire sans ambiguïté s'il elle est vraie ou fausse.

D5. Le "lagange objet" est le langage utilisé pour écrire les expressions logiques.

D6. Le "métalangage" est le langage utilisé pour parler du langage objet dans la langue courante

Remarques:

R1. Il existe des expressions qui ne sont effectivement pas des assertions. Par exemple, l'énoncé : "cet énoncé est faux", est un paradoxe qui ne peut être ni vrai, ni faux.

R2. Soit un expression logique A. Si celle-ci est une tautologie, nous la notons fréquemment et s'il l'expression est une contradiction, nous la notons .

PROPOSITIONS

Définition: En logique, une "proposition" est une affirmation qui a un sens. Cela veut dire que nous pouvons dire sans ambiguïté si cette affirmation est vraie (V) ou fausse (F). C'est ce que nous appelons le "principe du tiers exclu".

Exemple:

"Je mens" n'est pas une proposition. Si nous supposons que cette affirmation est vraie, elle est une affirmation de sa propre invalidité, donc nous devrions conclure qu'elle est fausse. Mais si nous supposons qu'elle est fausse, alors l'auteur de cette affirmation ne ment pas, donc il dit la vérité, aussi la proposition serait vraie.

Définition: Une proposition en logique binaire (où les propositions sont soit vraies, soit fausses) n'est donc jamais vraie et fausse à la fois. C'est que nous appelons le "principe de non-contradiction".

Ainsi, une propriété sur l'ensemble E des propositions est une application Pde E dans l'ensemble des "valeurs de vérité" :

  (2)

Nous parlons de "sous-ensemble associé", lorsque la proposition engendre uniquement une partie E' de E et inversement.

Exemple:

Dans , si P(x) s'énonce " x est pair" , alors ce qui est bien seulement un sous-ensemble associée de E mais de même cardinal (cf. chapitre Théorie Des Ensembles).

Définition: Soit P une propriété sur l'ensemble E. Une propriété Q sur E est une "négation" de P si et seulement si, pour tout :

-  est F si  est V

-  est V si  est F

Nous pouvons rassembler ces conditions dans une table dite "table de vérité" :

P Q
V F
F V
  (3)

En d'autres termes, P et Q ont toujours des valeurs de vérité contraires. Nous noterons ce genre d'énoncé " Q est une négation de P" :

  (4)

où le symbole  est le "connecteur de négation".

Remarque: Les expressions doivent être des expressions bien formées (souvent abrégé "ebf"). Par définition, toute variable est une expression bien formée, alors est une expression bien formée. Si P,Q sont des expressions bien formées, alors est une expression bien formée (l'expression "je mens" n'est pas bien formée car elle se contredit elle-même).

CONNECTEURS

Il y a d'autres types de connecteurs en logique :

Soit P et  Q deux propriétés définies sur le même ensemble E (lire "P ou Q") est une propriété sur E définie par :

-  est vraie si au moins l'une des propriétés P, Q  est vraie

-  est fausse sinon

Nous pouvons créer la table de vérité du "connecteur OU" ou "connecteur de disjonction" :

P Q
V V V
V F V
F V V
F F F
  (5)

Il est facile de se convaincre que, si les parties P, Q de E sont respectivement associées aux propriétés P, Q que  (voir théorie des ensembles) est associé à .

  (6)

Le connecteur  est associatif. Pour s'en convaincre, il suffit de faire une table vérité où nous vérifions que :

  (7)

Il existe également le "connecteur ET" ou "connecteur de conjonction"  pour tel que soient P, Q  deux propriétés définies sur E,   est une propriété sur E définie par :

-  est vraie si toutes les deux propriétés P, Q sont vraies

-  est fausse sinon

Nous pouvons créer la table de vérité du connecteur :

P Q
V V V
V F F
F V F
F F F
  (8)

Il est également facile de se convaincre que, si les parties P, Q de E sont respectivement associées aux propriétés P, Q que  (voir théorie des ensembles) est associé à :

  (9)

Le connecteur  est associatif. Pour s'en convaincre, il suffit aussi de faire une table vérité où nous vérifions que:

  (10)

Les connecteurs  sont distributifs l'un sur l'autre. A l'aide d'une simple table de vérité, nous prouvons que:

  (11)

ainsi que:

  (12)

Une négation de  est  une négation de  est  tel que :

  (13)

A nouveau, ces propriétés peuvent se démontrer par une simple table de vérité.

Remarque: Pour voir les détails de tous les opératures logiques, le lecteur devra se rendre dans le chapitre d'algèbre de Boole (cf. section d'Informatique Théorique) où l'identité, la double négation, l'idempotence, l'associativité, la distributivité, les relations de De Morgan sont présentées plus formellement.

Revenons maintenant sur le "connecteur d'implication logique" appelé aussi parfois le "conditionnel" noté ""

Remarque: Dans certains ouvrages sur le calcul propositionnel, ce connecteur est noté "" et dans le cadre de la théorie de la démonstration nous lui préférons souvent le symbole "".

Soient P, Q deux propriétés sur E.  est une propriété sur E définie par:

-  est fausse si P est vraie et Q fausse

-  est vraie sinon

En d'autres termes, P implique logiquement Q signifie que Q est vrai pour toute évaluation pour laquelle P est vraie. L'implication représente donc le "si... alors.."

Si nous écrivons la table de vérité de l'implication (attention à l'avant dernière ligne !!!) :

P Q
V V V
V F F
F V V
F F V
  (14)

Si , nous pouvons dire que pour que Q soit vraie, il suffit que P soit vraie (effectivement l'implication sera vraie si P est vraie ou fausse selon la table de vérité). Donc P est une condition suffisante de Q (mais non nécessaire!). D'un autre côté,  est équivalent à . Donc, si Q est fausse, il est impossible que P soit vraie (pour que l'implication reste vraie bien sûr!). Donc finalement Q est une condition nécessaire de P.

Exemples:

E1. Soit la proposition : "Si tu obtiens ton diplôme, je t'achète un ordinateur"

Parmi tous les cas, un seul correspond à une promesse non tenue: celui où l'enfant à son diplôme, et n'a toujours pas d'ordinateur (deuxième ligne dans le tableau).

Et le cas où il n'a pas le diplôme, mais reçoit quand même un ordinateur? Il est possible qu'il ait été longtemps malade et a raté un semestre, et le père a le droit d'être bon.

Que signifie cette promesse, que nous écrirons aussi : "Tu as ton diplôme je t'achète un ordinateur" ? Exactement ceci:

- Si tu as ton diplôme, c'est sûr, je t'achète un ordinateur (je ne peux pas ne pas l'acheter)

- Si tu n'as pas ton diplôme, je n'ai rien dit

E2. De toute proposition fausse nous pouvons déduire toute propositions (deux dernières lignes)

C'est un exemple plutôt anecdotique : dans un cours de Russell portant sur le fait que d'une proposition fausse, toute proposition peut être déduite, un étudiant lui posa la question suivante :

- "Prétendez-vous que de 2 + 2 = 5, il s'ensuit que vous êtes le pape ? "

- "Oui", fit Russell

- "Et pourriez-vous le prouver !", demanda l'étudiant sceptique

- "Certainement", réplique Russell, qui proposa sur le champ la démonstration suivante.

(1) Supposons que 2 + 2 = 5

(2) Soustrayons 2 de chaque membre de l'égalité, nous obtenons 2 = 3

(3) Par symétrie, 3 = 2

(4) Soustrayant 1 de chaque côté, il vient 2 =1

Maintenant le pape et moi sommes deux. Puisque 2 = 1, le pape et moi sommes un. Par suite, je suis le pape.

Sur ce ...

Le connecteur d'implication est essentiel en mathématiques, philosophie, etc. C'est un des fondements de toute démonstration, preuve ou déduction.

Le connecteur d'implication a comme propriétés (vérifiables à l'aide de la table de vérité ci-dessous) :

  (15)

conséquence de la dernière propriété (à nouveau vérifiable par une table de vérité) :

  (16)

Le "connecteur d'équivalence logique" ou "bi-conditionnel" noté "" ou "" signifiant par définition que :

  (17)

en d'autres termes, la première expression a la même valeur pour toute évaluation de la deuxième.

Ce que nous pouvons vérifier à l'aide d'une table de vérité:

P Q
V V V V V
V F F V F
F V V F F
F F V V V
  (18)

 signifie bien (lorsqu'il est vrai!) que "P et  Q ont toujours la même valeur de vérité" ou encore  "P et  Q sont équivalents". C'est vrai si P et Q ont même valeur, faux dans tout cas contraire.

Bien évidemment (c'est une tautologie) :

  (19)

La relation  équivaut donc à ce que P soit une condition nécessaire et suffisante de Q et à ce que Q soit une condition nécessaire et suffisante de P.

La conclusion, est que les conditions de type "nécessaire, suffisant, nécessaire et suffisant" peuvent être reformulés avec les termes "seulement si", "si", "si et seulement si".

Ainsi :

1. traduit le fait que Q est une condition nécessaire pour P ou dit autrement, P est vraie seulement si Q est vraie (dans le table de vérité, lorsque prend la valeur 1 on constate bien que P vaut 1 seulement si Q vaut 1 aussi). On dit aussi, si P est vraie alors Q est vraie.

2. ou ce qui reviens au même traduit le fait que Q est une condition suffisante pour P ou dit autrement, P est vraie si Q est vraie (dans le table de vérité, lorsque prend la valeur 1 on constate bien que P vaut 1 si Q vaut 1 aussi).

3. traduit le fait que Q est une condition nécessaire et suffisante pour P ou dit autrement, P est vraie si et seulement si Q est vraie (dans le table de vérité, lorsque prend la valeur 1 on constate bien que P vaut 1 si Q vaut 1 et seulement si Q vaut 1).

Remarque: L'expression "si et seulement si" correspond donc à une équivalence logique et ne peut être utilisée pour décrire un implication.

La première étape du calcul propositionnel est donc la formalisation des énoncés du langage naturel. Pour réaliser ce travail, le calcul propositionnel fournit finalement trois types d'outils :

1. Les "variables propositionnelles" (P, Q, R,...) symbolisent des propositions simples quelconques. Si la même variable apparaît plusieurs fois, elle symbolise chaque fois la même proposition.

2. Les cinq opérateurs logiques :

3. Les signes de ponctuation se réduisent aux seules parenthèses ouvrante et fermante qui organisent la lecture de manière à éviter toute ambiguïté.

Voici un tableau récapitulatif :

 

Description

Symbole

Utilisation

La "négation" est un opérateur qui ne porte que sur une proposition, il est unaire ou monadique. "Il ne pleut pas" s'écrit . Cet énoncé est vrai si et seulement si P est faux (dans ce cas s'il est faux qu'il pleut). L'usage classique de la négation est caractérisé par la loi de double négation : est équivalent à P.

La "conjonction" ou "produit logique" est un opérateur binaire, elle met en relation deux propositions. "Tout homme est mortel ET Ma voiture perd de l'huileI" s'écrit . Cette dernière expression est vrai si et seulement si P est vrai et Q est vrai.

La "disjonction" ou "somme logique" est, elle aussi, un opérateur binaire. est vrai si et seulement si p est vrai ou q est vrai. Nous pouvons comprendre ce OU de deux façons : soit de manière inclusive, soit de manière exclusive. Dans le premier cas est vrai si P est vrai, si Q est vrai ou si P et Q sont tous deux vrais. Dans le second cas, est vrai si P est vrai ou si Q est vrai mais pas si les deux le sont. La disjonction du calcul propositionnel est le ou inclusif et on donne au ou exclusif le nom d'alternative.

"L'implication" est également un opérateur binaire. Elle correspond, en gros, au schéma linguistique "Si...alors...". "Si j'ai le temps, j'irai au cinéma" s'écrit .

est faux si P est vrai et Q est faux.

Si le conséquent (ici Q) est vrai, l'implication est vraie. Lorsque l'antécédent (ici P) est faux, l'implication est toujours vraie. Cette dernière remarque peut être comprise si l'on se réfère à des énoncés de type : "Si on pouvait mettre Paris en bouteille, on utiliserait la tour Eiffel comme bouchon."

En résumé, une implication est fausse si et seulement si son antécédent est vrai et son conséquent est faux.

La "bi-implication" est, elle aussi, binaire : elle symbolise les expressions "... si et seulement si..." et "... est équivalent à..." L'équivalence entre deux propositions est vraie si celles-ci ont la même valeur de vérité. La bi-implication exprime donc aussi une forme d'identité et c'est pourquoi elle est souvent utilisée dans les définitions.

Il est possible d'établir des équivalences entre ces opérateurs. Nous avons déjà vu comment le bi-conditionnel pouvait se définir comme un produit de conditionnels réciproques, voyons maintenant d'autres équivalences :

  (20)

Remarque: Les opérateurs classiques peuvent donc être définis à l'aide de
grâce aux lois d'équivalence entre opérateurs.

Sont à noter également les deux relations de De Morgan (cf. chapitre d'Algèbre de Boole) :

  (21)

Elles permettent de transformer la disjonction en conjonction et vice-versa :

  (22)

PROCÉDURES DE DÉCISION

Nous avons introduit précédemment les éléments de base nous permettant d'opérer sur des expressions à partir de propriétés (variables propositionnelles) sans toutefois dire grand chose quant à la manipulation de ces expressions. Alors, il convient maintenant de savoir qu'en calcul propositionel qu'il existe deux manières d'établir qu'une proposition est un loi de la logique propositionnelle. Nous pouvons soit :

1. Employer des procédures non axiomatisées

2. Recourir à des procédures axiomatiques et démonstratives

Remarque: Dans de nombreux ouvrages ces procédures sont présentées avant même la structure du langage propositionnel. Nous avons choisi de faire le contraire pensent que l'approche serait plus aisée.

PROCÉDURES DE DÉCISIONS NON AXIOMATISÉES

Plusieurs de ces méthodes existent mais nous nous limiterons ici à la plus simple et à la plus parlante d'entre elles, celle du calcul matriciel, souvent appelée aussi "méthodes des tables de vérité".

La procédure de construction est comme nous l'avons vu précédemment assez simple. Effectivement, la valeur de vérité d'une expression complexe est fonction de la valeur vérité des énoncés plus simples qui al composent, et finalement fonction de la valeur de vérité des variables propositionelles qui la composent. En envisageant toutes les combinaisons possibles des valeurs de vérité des variables de propositionnelles, nous pouvons détermienrt les valeurs de vérité de l'expression complexe.

Les tables de vérité, comme nous l'avons vu, permettent donc de décider, à propos de toute proposition, si celle-ci est une tautologie (toujours vraie), une contradiction (toujours fausse) ou une expression contingente (parfois vraie, parfois fausse).

Nous pouvons ainsi distinguer quatre façons de combiner les variables propositionneles, les paranthèes et les connecteurs :

  Nom Description Exemple
1 Enoncé mal formé Non-sens. Ni vrai, ni faux
2 Tautologie Enoncé toujours vrai
3 Contradiction Enoncé toujours faux
4 Enoncé contingent Enoncé parfois vrai, parfois faux
  (23)

La méthode des tables de vérité permet de déterminer le type d'expression bien formée face auquel nous nous trouvons. Elle n'exige en principe aucune invention, c'est une procédure mécanique. Les procédures axiomatisées, en revanche, ne sont pas entièrement mécaniques. Inventer une démonstration dans le cadre d'un système axiomatisé demande parfois de l'habilité, de l'habitude ou de la chance. Pour ce qui est des tables de vérité, voici la marche à suivre :

Lorsqu'on se trouve face à un expression bien formée, ou fonction de vérité, nous commencons par déterminer à combien de variables propositionnelles distinctes nous avons affaire. Ensuite, nous examinons les différents arguments qui constituent cette expression. Nous construisons alors un tableau comprenant rangées (n étant le nombre de variables) et un nombre de colonnes égal au nombre d'arguments plus des colonnes pour l'expression elle-même et ses autres composantes. Nous attribuons alors aux variables les différentes combinaisons de vérité et de fausseté qui peuvent leur être conférées (la vérités est exprimée dans la table par un 1 et la fausseté par un 0). Chacune des rangées correspond à un monde possible et la totalité des rangées constitue l'ensemble des mondes possibles. Il existe, par exemple, un mode possible dans lequel P est une proposition vraie tandis que Q est fausse.

PROCÉDURES DE DÉCISIONS AXIOMATISÉES

L'axiomatisation d'une théorie implique, outre la formalisation de celle-ci, que nous partions d'un nombre fini d'axiomes et que, grâce à la transformation réglée de ces derniers, que nous puissions obtenir tous les théorèmes de cette théorie. Nous pardons donc de quelques axiomes dont la vérité est posée (et non démontrée). Nous déterminons des règles de déduction permettant de manipuler les axiomes ou toute expression obtenue à partir de ceux-ci. L'enchaînement de ces déductions est une démonstration qui conduit à un théorème, à une loi.

Nous allons sommairement présenter deux systèmes axiomatiques, chacun étant constitué d'axiomes utilisant deux règles dites "règles d'inférence" (règles intuitives) particulières :

1. Le "modus ponens" : si nous avons prouvé A et , alors nous pouvons déduire B. A est appelé la "prémisse mineure" et la prémisse majeure de la règle du modus ponens.

Exemple:

De et nous pouvons déduire

2. La "substitution" : nous pouvons dans un schéma d'axiome remplacer une lettre par une formule quelconque, pourvue que toutes les lettres identiques soient remplacées par des formules identiques.

Donnons à titre d'exemple, deux systèmes axiomatiques : le système axiomatique de Whithead et Rusell, le système axiomatique de Lukasiewicz.

1. Le système axiomatique de Whitehead et Russel adopte comme symboles primitifs et définit à partir de ces derniers de la manière suivante (relations facilement vérifiables à l'aide de tables de vérité) :

  (24)

nous avions déjà présenté plus haut quelque uns de ces éléments.

Ce système comprend cinq axiomes, assez évidents en soi plus les deux règles d'inférence. Les axiomes sont donnés ici en utilisant des symboles non primitifs, comme le faisaient Whitehead et Russel :

A1.

A2.

A3.

A4.

A5.

Remarque: Ces cinq axiomes ne sont pas indépendants les uns des autres; le quatrième peut être obtenu à partir des quatre autres.

Exemple:

Pour prouver , nous pouvons procéder ainsi :


  
(25)

 

2. Le système axiomatique Lukasiewicz comprend les trois axiomes suivants, plus les deux règles d'interférences :

A1.

A2.

A3.

Voici des preuves des deux premiers axiomes, dans le système de Whitehead et Russel. Ce sont les formules (6) et (17) de la dérivation suivante :


  
(26)

Ces axiomatisations permettent de retrouver comme théorème toutes les tautologies ou lois de la logique propositionnelle. De par tout ce qui a été dit jusqu'à maintenant, nous pouvons tenter de définir ce qu'est une preuve.

Définition: Une suite finie de formules est appelée "preuve" à partir des hypothèses si pour chaque i :

- est l'une des hypothèses
- ou est une variante d'un axiome
- ou est inférée (par application de la règle du modus ponens) à partir de la prémisse majeure
- ou est inférée (par application de la règle de substitution) à partir d'une prémisse antérieure , la variable remplacée n'apparaissant pas dans
et de la prémisse mineure

Une telle suite de formules, étant la formule finale de la suite, est appelée plus explicitement "preuve de " à partir des hypothèses , ce que nous notons par :

  (27)

Remarque: Il faut noter que lorsque nous essayons de prouver un résultat à partir d'un certain nombre d'hypothèses, nous essayons pas de prouver les hypothèses elles-mêmes.

QUANTIFICATEURS

Nous devons compléter l'utilisation des connecteurs du calcul propositionnel par ce que nous appelons des "quantificateurs" si nous souhaitons pouvoir résoudre certains problèmes. Effectivement, le calcul propositionnel ne nous permet pas d'affirmer des choses générales sur les éléments d'un ensemble par exemple. Dans ce sens, la logique des propositionnelle ne reflète qu'une partie du raisonnement. Le "calcul des prédicats" au contraire permet de manipuler formellement des affirmations telles que "il existe un x tel que [x a une voitre américaine]" ou "pour tous les x [si x est une teckel, alors x est petit]"; en somme, nous étendons les formules composées afin de pouvoir affirmer des quantifications existentielles ("il existe...") et des quantification universelle ("pour tout...."). Les exemples que nous venons de donner font intervenir des propositions un peu particulières comme "xx. Cette fonction , c'est celle qui associe "x a une voiture américaine" à x. Nous dénoterons cette fontion par "_ a une voiture américaine" et nous dirons que c'est une fonction propositionnelle, car c'est une fonction dont la valeur est une proposition. Ou encore un "prédicat". a une voiture américaine". Il s'agit ici de propositions comportant une varaible. Ces propositions sont en fait l'application d'une fonction à

Les quantificateurs existentiels et universels vont donc de pair avec l'emploi de fonctions propositionnelles. Le calcul des prédicats est cependant limité dans les formules existentielles et universelles. Ainsi, nous nous interdisons des formules comme "il existe une affirmation de x telle que...". En fait, nous ne nous autorisons à quantifier que des "individus". C'est pour cela que la logique des prédicats est dite une "logique de premier ordre".

Avant de passer à l'étude du calcul des prédicats nous devons définir :

D1. Le "quantificateur universel" : (pour tout)

D2. Le "quantificateur existentiel" : (il existe)

Remarque: Nous utilisons parfois le symbole  pour dire brièvement : "il existe un et un seul":

  (28)

Nous allons voir que la théorie de la démonstration et des ensembles, est l'exacte transcription des principes et résultats de la Logique (celle avec un "L" majuscule").

CALCUL DES PRÉDICATS

Dans un cours de mathématiques (d'algèbre, d'analyse, de géométrie, …), nous démontrons les propriétés de différents types d'objets (entiers, réels, matrices, suites, fonctions continues, courbes, …).  Pour pouvoir prouver ces propriétés, il faut bien sûr que les objets sur lesquels nous travaillons soient clairement définis (qu'est-ce qu'un entier, un réel, …?).

En logique du premier ordre et, en particulier, en théorie de la démonstration, les objets que nous étudions sont les formules et leurs démonstrations. Il faut donc donner une définition précise de ce que sont ces notions. Les termes et les formules forment la grammaire d'une langue, simplifiée à l'extrême et calculée exactement pour dire ce que nous voulons sans ambiguïté et sans détour inutile.

GRAMMAIRE

Définitions:

D1. Les "termes", désignent les objets dont nous voulons prouver des propriétés (nous reviendrons un peu plus loin beaucoup plus en détail sur ces derniers) :

- En algèbre, les termes désignent les éléments d'un groupe (ou anneau, corps, espace vectoriel, etc.). Nous manipulons aussi des ensembles d'objets (sous-groupe, sous-espace vectoriel, etc). Les termes qui désignent ces objets, d'un autre type, seront appelés "termes du second ordre".

- En analyse, les termes désignent les réels ou (par exemple, si nous nous placons dans des espaces fonctionnels) des fonctions.

D2. Les "formules", représentent les propriétés des objets que nous étudions (nous reviendrons également beaucoup plus en détail sur ces dernières) :

- En algèbre, nous pourrons écrire des formules pour exprimer que deux éléments commutent, qu'un sous-espace vectoriel est de dimension 3, etc.

- En analyse, nous écrirons des formules pour exprimer la continuité d'une fonction, la convergence d'une suite, etc.

- En théorie des ensembles, les formules pourront exprimer l'inclusion de deux ensembles, l'appartenance d'un élément à un ensemble,…

D3. Les "démonstrations", elles permettent d'établir qu'une formule est vraie. Le sens précis de ce mot aura lui aussi besoin d'être défini. Plus exactement, elles sont des déductions sous hypothèses, elles permettent de "mener du vrai au vrai", la question de la vérité de la conclusion étant alors renvoyée à celle des hypothèses, laquelle ne regarde pas la logique mais repose sur la connaissance que nous avons des choses dont nous parlons.

LANGAGES

En mathématique, nous utilisons, suivant le domaine, différents langages qui se distinguent par les symboles utilisés. La définition ci-dessous exprime simplement qu'il suffit de donner la liste de ces symboles pour préciser le langage.

Définition: Un "langage" est la donnée d'une famille (pas nécessairement finie) de symboles. Nous en distinguons trois sortes : symboles, termes et formules.

Remarques:

R1. Nous utilisons quelques fois le mot "vocabulaire" ou le mot "signature" à la place du mot "langage".

R2. Le mot "prédicat" peut être utilisé à la place du mot "relation". Nous parlons alors de "calcul des prédicats" au lieu de "logique du premier ordre" (ce que nous avons étudié précédemment).

SYMBOLES

Il existe différents types de symboles que nous allons tâcher de définir :

D1. Les "symboles de constante" (voir remarque plus bas)

Exemple:

Le n pour l'élément neutre en théorie des ensembles (cf. chapitre de Théorie Des Ensembles)

D2. Les "symboles de fonction" ou "foncteurs" . A chaque symbole de fonction est associé un entier strictement positif que nous appelons son "arité" : c'est le nombre d'arguments de la fonction. Si l'arité est 1 (resp. 2, …,n), nous disons que la fonction est unaire (resp. binaire, …, n-aire)

Exemple:

Le foncteur binaire de multiplication * dans les groupes (cf. chapitre de Théorie Des Ensembles)

D3. Les "symboles de relation". De la même manière, à chaque symbole de relation est associé un entier positif ou nul (son arité) qui correspond à son nombre d'arguments et nous parlons de relation unaire, binaire, n-aire (comme par exemple le symbole de relation "=").

D4. Les "variables individuelles". Dans toute la suite, nous nous donnerons un ensemble infini V de variables. Les variables seront notées comme il l'est par tradition : x, y, z (éventuellement indexées: ).

D5. A cela il faut rajouter les connecteurs et quantificateurs que nous avons longuement présenté plus haut et sur lesquels il est pour l'instant inutile de revenir.

Remarques:

R1. Un symbole de constante peut être vu comme un symbole de fonction à 0 argument (d'arité nulle).

R2. Nous considèrons (sauf mention contraire) que chaque langage contient le symbole de relation binaire = (lire "égal") et le symbole de relation à zéro argument dénoté  (lire "bottom" ou "absurde") qui représente le faux. Dans la description d'un langage, nous omettrons donc souvent de les mentionner. Le symbole  est souvent redondant. Nous pouvons en effet, sans l'utiliser, écrire une formule qui est toujours fausse. Il permet cependant de représenter le faux d'une manière canonique et donc d'écrire des règles de démonstration générales.

R3. Le rôle des fonctions et des relations est très différent. Comme nous le verrons plus loin, les symboles de fonction sont utilisés pour construire les termes (les objets du langage) et les symboles de relation pour construire les formules (le propriétés de ces objets).

TERMES

Les termes (nous disons aussi "termes du premier ordre") représentent les objets associés au langage.

Définitions:

Soit  un langage :

D1. L'ensemble  des termes sur  est le plus petit ensemble contenant les variables, les constantes et stable (on ne sort pas de l'ensemble) par l'application des symboles de fonction de à des termes.

D2. Un "terme clos" est un terme qui ne contient pas de variables (donc par extension, seulement des constantes).

D3. Pour obtenir une définition plus formelle, nous pouvons écrire :

  (29)

t est une variable ou un symbole de constante et, pour tout :

  (30)

f est une fonction d'arité n (rappelons que l'arité est le nombre d'arguments de la fonction). Ainsi, pour chaque arité, il y a un degré d'ensemble de termes. Nous avons finalement :

  (31)

D4. Nous appellerons "hauteur" d'un terme t le plus petit k tel que

Remarques : 

R1. la définition D4 signifie que les variables et les constantes sont des termes et que si f est un symbole de fonction n-aire et sont des termes alors  est un terme en soi aussi. L'ensemble  des termes est défini par la grammaire:

  (32)

Cette expression se lit de la manière suivante : un élément de l'ensemble  que nous sommes en train de définir est soit un élément de V (variables), soit un élément de  (l'ensemble des symboles de constantes), soit l'application d'un symboles de fonction  à n éléments (constantes ou variables) de .

Attention : le fait que f soit de la bonne arité est seulement implicite dans cette notation. De plus, l'écriture  ne signifie pas que tous les arguments d'une fonction sont identiques mais simplement que ces arguments sont des éléments de .

R2. Il est souvent commode de voir un terme (expression) comme un arbre dont chaque nœud est étiqueté par un symbole de fonction (opérateur ou fonction) et chaque feuille par une variable ou une constante.

Dans la suite, nous allons sans cesse définir des notions (ou prouver des résultats) "par récurrence" sur la structure ou la taille d'un terme.

Définitions:

D1. Pour prouver une propriété P sur les termes, il suffit de prouver P pour les variables et les constantes et de prouver  à partir de . Nous faisons ainsi ici une "preuve par induction sur la "hauteur" d'un terme. C'est une technique que nous retrouverons dans les chapitres suivants.

D2. Pour définir une fonction  sur les termes, il suffit de la définir sur les variables et les constantes et de dire comment nous obtenons  à partir de . Nous faisons ici encore une "définition par induction sur la hauteur d'un terme".

Exemple:

La taille (nous disons aussi la "longueur") d'un terme t (notée ) est le nombre de symboles de fonction apparaissant dans t. Formellement:

-  si x est une variable et c est une constante

-

Remarque: La preuve par induction sur la hauteur d'un terme sera souvent insuffisante. Nous pourrons alors prouver une propriété P sur les termes en supposant la propriété vraie pour tous les termes de taille  et en la démontrant ensuite pour les termes de taille n. Il s'agira alors d'une "preuve par récurrence sur la taille du terme" (voir de tels exemples dans le chapitre de théorie des ensembles).

FORMULES

Les formules sont construites à partir des "formules dites atomiques" en utilisant des connecteurs et des "quantificateurs". Nous utiliserons les connecteurs et les quantificateurs suivants (nous sont déjà connus) :

- connecteur unaire de négation :

- connecteurs binaires de conjonction et disjonction ainsi que d'implication :  ,  ,

- quantificateurs :  qui se lit "il existe" et  qui se lit "pour tout"

Cette notation des connecteurs est standard (elle devrait du moins). Elle est utilisée pour éviter les confusions entre les formules et le langage courant (le métalangage).

Définitions:

D1. Soit  un langage, les "formules atomiques" de  sont les formules de la forme  où R est un symbole de relation n-aire de  et  sont des termes de . Nous notons "Atom" l'ensemble des formules atomiques. Si nous notons  l'ensemble des symboles de relation, nous pouvons écrire l'ensemble des termes mis en relations par l'expression :

  (33)

L'ensemble F des formules de la logique du premier ordre de  est donc défini par la grammaire (où x est une variable) :

  (34)

où il faut lire : l'ensemble des formules est le plus petit ensemble contenant les formules et tel que si  et  sont des formules alors , etc. sont des formules et qu'elles peuvent être en relation en relaton entre elles.

Exemple:

Les symboles de relation du langage propositionnel sont des relations d'arité 0 (même le symbole "=" est absent), les quantificateurs sont alors inutiles (puisqu'une formule ne peut pas contenir des variables). Nous obtenons alors le calcul propositionnel défini par :

  (35)

Remarquons la présence du symbole "botton" signifiant le "faux" dont que nous n'avions pas mentionné lors de notre étude de la logique propositionnelle.

Nous ferons attention à ne pas confondre termes et formules.  est un terme (fonction),  est une formule. Mais  n'est rien : nous ne pouvons , en effet, mettre un connecteur entre un terme et une formule (aucun sens).

Remarques:

R1. Pour définir une fonction  sur les formules, il suffit de définir  sur les formules atomiques et de dire comment on obtient  (resp. ) à partir de  et  (resp. )

R2. Pour prouver une propriété P sur les formules, il suffit de prouver P pour les formules atomiques et de prouver (resp. ) à partir de  et  (resp. ).

R3. Pour prouver une propriété P sur les formules, il suffit de supposer la propriété vraie pour toutes les formules de taille et de la démontrer pour les formules de taille n.

D2. Une "sous-formule" d'une formule (ou expression) F est l'un de ses composants, in extenso une formule à partir de laquelle F est construite. Formellement, nous définissons l'ensemble  des sous-formules F par:

- Si F est atomique,

- Si  avec

- Si  ou  avec

D3. Une formule F de  n'utilise qu'un nombre fini de symboles de . Ce sous-ensemble est appelé le "langage de la formule" et noté .

D4. La "taille (ou la longueur) d'une formule" F (notée ) est le nombre de connecteurs ou de quantificateurs apparaissant dans F. Formellement :

-  si F est une formule atomique

-

-  avec

D5. "L'opérateur principal" (nous disons aussi le "connecteur principal") d'une formule est défini par :

- Si A est atomique, alors elle n'a pas d'opérateur principal

- Si , alors  est l'opérateur principal de A

- Si  où , alors  est l'opérateur principal de A

- Si , alors est l'opérateur principal de A

D6. Soit F une formule. L'ensemble des variables libres de F et l'ensemble des variables muettes (ou liées) de F sont définis par récurrence sur .

Une occurrence d'une variable donnée est dite "variable liée" ou "variable muette" dans une formule F si dans cette cette même formule, une quantificateur y fait référence. Dans le cas contraire, nous disons avoir une "variable libre".

Remarque: Une occurrence d'une variable x dans une formule F est une position de cette variable dans la formule F. Ne pas confondre avec l'objet qu'est la variable elle-même.

Pour préciser les variables libres possibles d'une formule F, nous noterons . Cela signifie que les variables libres de F sont parmi  in extenso si y est libre dans F, alors y est l'un des  mais les  n'apparaissent pas nécessairement dans F.

Nous pouvons définir les variables muettes ou libre de manière plus formelle :

1. Si  est atomique alors est l'ensemble des variables apparaissant dans les  et nous avons

2. Si  où :  alors

3. si alors  et

4. si  avec  et

Exemples:

E1. Soit F : alors et

E2. Soit G : alors et

D7. Nous disons que les formules F et G sont "-équivalentes" si elles sont (syntaxiquement) identiques à un renommage près des occurrences liées des variables.

D8. Une "formule close" est une formule sans variables libres.

D9. Soit F une formule, x une variable et t un terme.  est la formule obtenue en remplaçant dans F toutes les occurrences libres de x par t, après renommage éventuel des occurrences liées de F qui apparaissent libres dans t.

Remarques:

R1. Nous noterons dans les exemples vus qu'une variable peut avoir à la fois des occurrences libres et des occurrences liées. Nous n'avons donc pas toujours

R2. Nous ne pouvons pas renommer y en x dans la formule  et obtenir la formule : la variable x serait "capturée". Nous ne pouvons donc pas renommer des variables liées sans précautions : il faut éviter de capturer des occurrences libres.

R3. La notion de formule définie ici est la notion de formule de logique du premier ordre. Certaines formules ne sont pas des formules du premier ordre (le nombre de quantificateurs ne doivent pas êtres dépendant d'une variable !).

DÉMONSTRATIONS

Les démonstrations que l'on trouve dans les ouvrages de mathématiques sont des assemblages de symboles mathématiques et de phrases contenant des mots clés tels que: "donc", "parce que", "si", "si et seulement si", "il est nécessaire que", "il suffit de", "prenons un x tel que", "supposons que", "cherchons une contradiction", etc. Ces mots sont supposés être compris par tous de la même manière, ce qui n'est en fait, pas toujours le cas.

Dans tout ouvrage, le but d'une démonstration est de convaincre le lecteur de la vérité de l'énoncé. Suivant le niveau du lecteur, cette démonstration sera plus ou moins détaillée : quelque chose qui pourra être considéré comme évident dans un cours de licence pourrait ne pas l'être dans un cours de maturité.

Dans un devoir, le correcteur sait que le résultat demandé à l'étudiant est vrai et il en connaît la démonstration. L'étudiant doit démontrer (correctement) le résultat demandé. Le niveau de détail qu'il doit donner  dépend donc de la confiance qu'aura le correcteur : dans une bonne copie, une "preuve par une récurrence évidente" passera bien, alors que dans une copie où il y eu auparavant un "évident", qui était évidemment… faux, ça ne passera pas!

Pour pouvoir gérer convenablement le niveau de détail, il faut savoir ce qu'est une démonstration complète. Ce travail de formalisation a été fait qu début de 20ème siècle!!

Plusieurs choses peuvent paraître surprenantes:

- il n'y a qu'un nombre fini de règles: deux pour chacun des connecteurs (et l'égalité) plus trois règles générales. Il n'était pas du tout évident à piori qu'un nombre fini de règles soit suffisant pour démontrer tout ce qui est vrai. Nous montrerons ce résultat (c'est essentiellement, le théorème de complétude). La preuve n'en est pas du tout triviale.

- ce sont les mêmes règles pour toutes les mathématiques et la physique: algèbre, analyse, géométrie, etc. Cela veut dire que nous avons réussi à isoler tout ce qui est général dans un raisonnement. Nous verrons plus loin qu'une démonstration est un assemblage de couples , où  est un ensemble de formules (les hypothèses) et A une formule (la conclusion). Quand nous faisons de l'arithmétique, de la géométrie ou de l'analyse réelle, nous utilisons, en plus des règles, des hypothèses que l'on appelle des "axiomes". Ceux-ci expriment les propriétés particulières des objets que nous manipulons (pour plus de détails sur les axiomes voir la page d'introduction du site).

Nous démontrons donc, en général, des formules en utilisant un ensemble d'hypothèses, et cet ensemble peut varier au cours de la démonstration: quand nous disons "supposons F et montrons G", F est alors une nouvelle hypothèse que nous pourrons utiliser pour montrer G. Pour formaliser cela, nous introduisons le concept de "séquent":

Définitions:

D1. Un "séquent" est un couple (noté ) où :

-  est un ensemble fini de formules qui représente les hypothèses que nous pouvons utiliser. Cet ensemble s'appelle aussi le "contexte du séquent".

- F est une formule. C'est la formule que nous voulons montrer. Nous dirons que cette formule est la "conclusion du séquent".

Remarques:

R1. Si  nous pourrons noter  au lieu de . Le signe  se lit "thèse" ou "démontre". 

R2. Nous noterons  un séquent dont l'ensemble d'hypothèses est vide et  un séquent dont l'ensemble d'hypothèses est

R3. Nous noterons eque dans le séquent  la formule peut-être dans (elle devient alors un hypothèse).

R4. Nous écrirons  pour dire que " est non prouvable".

D2. Un séquent  est "prouvable" (ou démontrable, dérivable) s'il peut être obtenu par une application finie de règles. Une formule F est prouvable si le séquent  est prouvable.

RÈGLES DE DÉMONSTRATION

Les règles de démonstration sont les briques qui permettent de construire les dérivations. Une dérivation formelle est un assemblage fini (et correct!) de règles. Cet assemblage n'est pas linéaire (ce n'est pas une suite) mais un "arbre". Nous sommes en effet souvent amenés à faire des branchements.

Nous allons présenter un choix de règles. Nous aurions pu en présenter d'autres (à la place ou en plus) qui donneraient la même notion de prouvabilité. Celle que l'on a choisies sont "naturelles" et correspondent aux raisonnements que l'on fait habituellement en mathématique. Dans la pratique courante nous utilisons, en plus des règles ci-dessous, beaucoup d'autres règles mais celles-ci peuvent se déduire des précédentes. Nous les appellerons "règles dérivées".

Il est de tradition d'écrire la racine de l'arbre (le séquent conclusion) en bas, les feuilles en haut: la nature est ainsi faite… Pourtant, nous construisons souvent l'arbre en allant de la racine vers les feuilles. Comme il est également de tradition d'écrire, sur une feuille de papier, de haut en bas, il ne serait pas déraisonnable d'écrire la racine en haut et les feuilles en bas. Il faut faire un choix !

Une règle se compose:

- d'un ensemble de "prémisses": chacune d'elles est un séquent. Il peut y en avoir zéro, un ou plusieurs

- du séquent conclusion de la règle

- d'une barre horizontale séparant les prémisses (en haut) de la conclusion (en bas). Sur la droit de la barre, nous indiquerons le nom de la règle.

Exemple:

  (36)

Cette règle à deux prémisses ( et  ) et une conclusion (). Le nom abrégé de cette règle est .

Cette règle peut se lire de deux manières :

- de bas en haut: si nous voulons prouver la conclusion, il suffit par utilisation de la règle de prouver les prémisses. C'est ce qu'on fait quand nous cherchons une démonstration. Cela correspond à "l'analyse".

- de haut en bas: si nous avons prouvé les prémisses, alors nous avons aussi prouvé la conclusion. C'est ce que nous faisons fait quand nous rédigons une démonstration. Cela correspond à la "synthèse".

Pour les démonstrations il existe un nombre fini de règles au nombre 17 que nous allons définir ci-après:

1. Axiome :

  (37)

De bas en haut : si la conclusion du séquent est une des hypothèses, alors le séquent est prouvable.

2. Affaiblissement :

  (38)

Explications :

- De haut en bas : si nous démontrons A sous les hypothèses , en ajoutant d'autres hypothèses on peut encore démontrer A.

- De bas en haut : il y a des hypothèses qui peuvent ne pas servir

3. Introduction de l'implication :

  (39)

- De bas en haut: pour montre que  nous supposons A (c'est-à-dire que nous l'ajoutons aux hypothèses) et nous démontrons B.

4. Elimination de l'implication :

  (40)

- De bas en haut : pour démontrer B, si nous connaissons un théorème de la forme et si nous pouvons démontrer le lemme , il suffit de démontrer A.

5. Introduction à la conjonction :

  (41)

- De bas en haut : pour montrer , il suffit de montrer et de montrer B.

6. Elimination de la conjonction :

  (42)  et   (43)

- De haut en bas: de , nous pouvons déduire A (élimination gauche) et B (élimination droite)

7. Introduction de la disjonction :

  (44)  ou   (45)

- De bas en haut: pour démontrer , il suffit de démontrer A ou de démontrer B

8. Elimination de la disjonction :

  (46)

- De bas en haut : si nous voulons montrer C et que nous savons que nous avons , il suffit de le montre rd'un part en supposant A, d'autre part en supposant B. C'est un raisonnement par cas.

9. Introduction de la négation :

  (47)

- De bas en haut: pour montrer , nous supposons A et nous démontrons l'absurde ()

10. Elimination de la négation :

  (48)

- De haut en bas : si nous avons montré  et A, alors nous avons montré l'absurde ()

11. Absurdité classique :

  (49)

- De bas en haut: pour démontrer A, il suffit de démontrer l'absurde en supposant .

Cette règle, est équivalent à dire : A est vraie si et seulement si il est faux que A soit fausse. Cette règle ne va pas de soi : elle est nécessaire pour prouver certaines résultats (il y a des résultats que nous ne pouvons pas prouver si nous n'avons pas cette règle). Contrairement, à beaucoup d'autres, cette règle peut par ailleur être appliquée à tout moment : nous pouvons, en effet, toujours dire : pour prouver A je suppose et je vais cherche une condtradiction.

12. Introduction au quantificateur universel :

  (50)

- De bas en haut : pour démontrer , il suffit de montrer A en ne faisant aucune hypothèse sur x.

Remearque : pour des démonstrations cette vérification (aucune hypothèse sur x) est souvent source d'erreur.

13. Elimination du quantificateur universel :

  (51)

de haut en bas: de , nous pouvons déduire  pour n'import quel terme t. Ce que nous pouvons dire aussi sous la forme: si nous avons prouvé A pour tout x, alors nous pouvons utiliser At (!!). avec n'importe quel objet

14. Introduction du quantificateur existentiel

  (52)

de bas en haut: pour démontrer , il suffit de trouver un objet (in extenso un terme t) pour lequel nous savons montrer .

15. Elimination du quantificateur existentiel

  (53)

- De bas en haut: nous démontrons qu'il existe bien un ensemble d'hypothèses tel que et partant de ce résultat comme nouvelle hypothèse, nous démontrons C. Ce formule C hérite alors de la formule et dès lors x n'est pas libre dans C car il ne l'était déjà pas dans .

16. Introduction de l'égalité :

  (54)

De bas en haut : nous pouvons toujours montrer t=t. Cette règle signifie que l'égalité est réflexive (cf. chapitre Opérateurs).

17. Elimination de l'égalité :

  (55)

- De haut en bas: si nous avons démontré  et t=u, alors nous avons démontré . Cette règle exprime que les objets égaux ont les mêmes propriétés. Nous noterons cependant que les formules (ou relations) t=u et u=t ne sont pas, formellement, identiques. Il nous faudra démontrer que l'égalité est symétrique (nous en profiterons aussi pour démontrer que l'égalité est transitive).

Exemples:

E1. Cet exemple montre que l'égalité est symétrique (un petit peu non trivial mais bon pour commencer) :

  (56)

- De haut en bas : nous introduisons l'égalité et prouvons à partir de l'hypothèse la formule . En même temps, nous définissons l'axiome comme quoi . Ensuite à partir de ces prémisses, nous éliminons l'égalité en substituant les termes de façon à ce que à partir de la supposition (venant de l'axiome) nous obtenions . Ensuite, l'élimination de l'égalité implique automatiquement sans aucune hypothèse que . Dès lors, il nous suffit d'introduire le quantificateur universel pour chacune des variables (donc deux fois) sans aucune hypothèse afin d'obtenir que l'égalité est symétrique.

E2. Cet exemple montre que l'égalité est transitive (c'est-à-dire si  et  alors ) . En notant F la formule :

  (57)

Que faisons, nous ici ? Nous introduisons d'abord la formule F deux fois en tant qu'axiome afin de la décortiquer plus tard à gauche et à droite (nous n'introduisons pas l'égalité supposée déjà introduite en tant que règle). Une fois ceci fait, nous éliminons à gauche et à droite la conjonction sur la formule pour travailler sur les termes gauches et droites seuls et introduisons l'égalité sur les deux termes ce qui fait qu'à partir de la formule nous avons l'égalité transitive. Il s'ensuit que sans aucune hypothèse cela implique automatiquement que l'égalité est transitive et finalement nous disons que ceci est valable pour tout valeur des différentes variables (si la formule est vraie, alors l'égalité est transitive).

E3. L'objectif sera de démontrer que toute involution est une bijection (cf. chapitre de Théorie Des Ensembles). Soit f est un symbole de fonction unaire (à une variable), nous notons (pour plus de détails voir le chapitre de théorie des ensembles) :

- la formule qui signifie que f est injective

- la formule qui signifie que f est surjective

- la formule qui signifie que f est bijective

- la formule qui signifie que f est involution (nous notons également cela c'est-à-dire que la composition de f est l'identité)

Nous aimerions savoir si :

Nous allons présenter (en essayant que ce soit au plus clair) cette démonstration de quatre manières différentes : classique (informelle), classique (pseudo-formelle) et formelle en arbre et formelle en ligne.

Méthode classique :

Nous devons montrer que si f involutive est donc bijective. Nous avons donc deux choses à montrer (et les deux doivent être satisfaites en même temps) : que la fonction est injective et surjective.

1. Montrons que l'involution est injective : nous supposons pour cela, puisque f est involutive elle est donc injective, tel que implique . Or, cette supposition découle automatiquement de la définition de l'involution que et de l'application de f à la relation (soit trois égalités) tel que nous avons donc .

2. Montrons que l'involution est surjective : si elle est surjective, alors nous devons avoir . Or, définissons la variable x par définition de l'involution elle-même…) un changement de variables après nous obtenons et donc la surjectivité est assurée. (puisque

Méthode pseudo-formelle :

Nous reprenons la même chose et nous y injecte les règles de la théories de la démonstration :

Nous devons montrer que f involutive est donc bijective. Nous avons donc deux choses à montrer (et les deux doivent être satisfaites en même temps) : que la fonction est injective et surjective .

1. Montrons que l'involution est injective : nous supposons pour cela, puisque f est involutive et donc injective, que implique . Or, cette supposition découle automatiquement de la définition de l'involution (donc nous pouvons éliminer le quantificateur universel sous-jacent et introduire l'involution comme un axiome) que et de l'application de f à la relation (soit trois égalités ) tel que nous avons donc .

2. Montrons que l'involution est surjective : si elle est surjective, alors nous devons avoir . Or, définissons la variable x par définition de l'involution elle-même (puisque …) un changement de variables après nous obtenons et donc la surjectivité est assurée.

Méthode formelle en arbre :

Faisons cela avec le méthode graphique que nous avons déjà présenté plus haut.

1. Montrons que l'involution est injective :

Pour cela, d'abord montrons que

  (58)

Remarque: Cette dernière relation est abrégée et appelée (comme d'autres existantes) "règle dérivée" car c'est un raisonnement qui est très souvent fait lors de démonstrations et un peu long à développer à chaque fois…

Dès lors :

  (59)

2. Montrons que l'involution est surjective :

  (60)

Il s'ensuit :

  (61)

Méthode formelle en ligne :

Nous pouvons faire la même chose sous une forme un peu moins… large… et plus tabulée… (cela n'en est pas moins indigeste) :

  (62)




Ajouter un commentaire à cette page:
Votre nom:
Votre message:

 
  nombre de visiteurs venus 484448 visiteurs (2038117 hits) Ici!

Tracked by Histats.com
Recherche personnalisée
$value) { if ($param == 'client') { google_append_url($google_ad_url, $param, 'ca-mb-' . $GLOBALS['google'][$param]); } else if (strpos($param, 'color_') === 0) { google_append_color($google_ad_url, $param); } else if ((strpos($param, 'host') === 0) || (strpos($param, 'url') === 0)) { google_append_url($google_ad_url, $param, $google_scheme . $GLOBALS['google'][$param]); } else { google_append_globals($google_ad_url, $param); } } google_append_url($google_ad_url, 'dt', round(1000 * array_sum(explode(' ', microtime())))); return $google_ad_url; } $google_ad_handle = @fopen(google_get_ad_url(), 'r'); if ($google_ad_handle) { while (!feof($google_ad_handle)) { echo fread($google_ad_handle, 8192); } fclose($google_ad_handle); } ?>
 
 
=> Veux-tu aussi créer une site gratuit ? Alors clique ici ! <=