• Ce forum est la traduction générée par la machine de www.cad3d.it/forum1 - la communauté italienne du design. Plusieurs termes ne sont pas traduits correctement.

Le serveur humble

  • Auteur du sujet Auteur du sujet Fulvio Romano
  • Date de début Date de début
dépend de ce que fait le logiciel. Je voulais juste faire attention au fait que la première étape importante pour résoudre un problème est de le définir avec soin. et le problème de l'intelligence n'a pas encore été bien défini. . . .
Ici. Je voulais arriver !
En fin de compte, vous essayez d'imiter l'intelligence humaine, quelle qu'elle soit, en utilisant des choses déjà intelligentes mais différentes de la nôtre.
Pas vrai ?
 
préparer la terre... Je vous suivrai :)
Je vais voir si je vous pose quelques questions.

J'aime beaucoup le sujet, mais je n'ai jamais eu la chance de l'approfondir.
 
Ici. Je voulais arriver !
En fin de compte, vous essayez d'imiter l'intelligence humaine, quelle qu'elle soit, en utilisant des choses déjà intelligentes mais différentes de la nôtre.
Pas vrai ?
Je pense que vous avez tort.
l'objectif principal de l'ia est de mettre une machine dans les conditions de "décide seul".
cela seulement si vous pouvez « comprendre » les commandes qui vous sont imposées.

Malheureusement, le PC exécute les commandes qui sont insérées parce qu'il ya des logiciels qui sont en mesure de donner à la machine la « relation » entre l'entrée et la sortie.
Enfin, le pc, avec une entrée, retourne la sortie=f(input) où la fonction est le logiciel.

son PC n'ajoute rien.

avec la mâchoire nous essayons de changer ce concept
 
Ici. Je voulais arriver !
En fin de compte, vous essayez d'imiter l'intelligence humaine, quelle qu'elle soit, en utilisant des choses déjà intelligentes mais différentes de la nôtre.
Pas vrai ?
quand le battè kasparov bleu profond, beaucoup ont affirmé que la machine n'était pas vraiment intelligente parce qu'elle faisait simplement fonctionner un programme. Voici ce qu'il a dit :
dire que le bleu profond, jouer aux échecs, n'est pas vraiment penser est comme dire qu'un avion ne vole pas parce qu'il ne claque pas les ailes
ceci et bien plus encore, dans le prochain post, que j'ai déjà écrit, mais maintenant je ne l'ai pas sous la main...
 
Peut-être que nous allons y aller, peut-être que nous devrions ouvrir une discussion spéciale, mais...
Je pense que vous avez tort.
l'objectif principal de l'ia est de mettre une voiture dans les conditions de "décide à lui seul".
cela seulement si vous pouvez « comprendre » les commandes qui vous sont imposées.

Malheureusement, le PC exécute les commandes qui sont insérées parce qu'il ya des logiciels qui sont en mesure de donner à la machine la « relation » entre l'entrée et la sortie.
Enfin, le pc, avec une entrée, retourne la sortie=f(input) où la fonction est le logiciel.

son PC n'ajoute rien.
Je comprends, mais...
Un homme, qu'est-ce qu'il fait ? reçoit des « entrées » de l'environnement environnant et de son « corps », les analyse, exécute le raisonnement et émet un « sortie »
Est-ce que je fais un exemple stupide ?
voit une pomme (input), analyse la qualité de la pomme selon certains paramètres (look, odeur, forme...), considère d'autres entrées « internes » (j'ai faim ? Sont-ils intolérants ? Je veux le manger?) et émet une sortie (je le mange/je la laisse où elle est)
et plus ou moins de valeur pour toutes choses
Pensez à ce que vous faites au travail
vous êtes assigné une tâche (input), recevoir ou chercher de l'information (autres entrées), l'information de processus (pensée), cracher une réponse (output)
T'es un flic, en gros. . . .
 
... vous êtes assigné une tâche (input), recevoir ou chercher de l'information (autres entrées), l'information de processus (pensée), cracher une réponse (output)
T'es un flic, en gros. . . .
moins que "pensée", oui

le pc les solutions les a déjà en lui-même et de temps en temps cracher qui "désirait".
C'est pour ça que l'intelligent "looks" pc quand ce n'est pas vraiment. le pc n'est pas en mesure de trouver une solution, mais seulement de renvoyer la bonne réponse à la bonne question.

J'espère avoir expliqué.
 
Qui sait si les PC pensent mais ils préfèrent ne pas vous le dire. . . .
Vous plaisantez, mais pensez à ce que vous pourriez faire avec la mâchoire.
il arriverait à l'"usine automatique" souhaitée.

imaginez une usine faite seulement de pcs et de robots capables de prendre des commandes de production, organiser selon le type de travail, produire, etc.
 
vous êtes assigné une tâche (input), recevoir ou chercher de l'information (autres entrées), l'information de processus (pensée), cracher une réponse (output)
T'es un flic, en gros. . . .
Il y a deux différences importantes.
le premier est que le raisonnement que vous faites, vous le faites parce que votre but ultime est de vous nourrir, puis mettre en pratique les techniques qui vous permettent de survivre, le PC le fait à la place parce que ce que l'on a demandé.

La seconde est que... personne n'a expliqué comment évaluer une pomme, vous l'avez appris vous-même. mettre un pc dans un champ, après un an je le trouverais rouillé, mais il ne pourra pas distinguer une pomme d'une poire si personne n'a écrit au sujet du code dédié.

vabbé... comme toujours J'ai récupéré le poste...
 
alan turing était un mathématique britannique et logique, considéré comme le père de l'informatique moderne. Un des plus grands mathématiciens du XXe siècle, il a travaillé comme analyste cryptographe pendant la Seconde Guerre mondiale, et est considéré comme l'un des plus brillants cryptoanalystes de l'histoire.
son nom est lié au soi-disant "test de turing", qui fait partie des soi-disant "expériences mentales". Les expériences mentales sont des expériences, très utilisées en sciences, qui peuvent résoudre ou plus souvent réfuter des théories, par simple spéculation philosophique, sans aucune expérience pratique de laboratoire.
l'expérience mentale la plus célèbre est celle du chat de schrodinger, où dans les années trente a essayé de démontrer l'incomplétude de la mécanique classique. L'expérience est devenue très célèbre parce qu'apparemment de la simple compréhension, elle est donc encore utilisée même si la communauté scientifique est d'accord pour considérer qu'elle souffre du sophisme. Il y a une erreur fondamentale qui invalide complètement l'expérience, qui montre néanmoins quelque chose qui est correct pour d'autres raisons. Bien que la mécanique classique soit effectivement insuffisante pour expliquer les phénomènes quantiques, il est également vrai que le compteur geiger de l'expérience génère l'action physique dans un monde bien décrit par la mécanique classique, et donc l'état du chat est bien déterminé indépendamment de son observation.

le test de turing comprend une boîte noire, une boîte dans laquelle vous ne pouvez pas regarder, avec à l'intérieur une personne ou un ordinateur. un observateur externe doit comprendre si la personne ou l'ordinateur pose simplement des questions et analyse les réponses. si de réponses il n'est pas possible de distinguer l'ordinateur de la personne, cela signifie que l'intelligence artificielle a été réalisée, c'est-à-dire qu'un ordinateur a été construit qui peut « émuler » un être humain.
Une chose intéressante est qu'un test similaire nous est offert très souvent sur Internet. lorsqu'un site internet doit "comprendre" s'il y a un être humain à l'autre bout du fil, ou un "bot", un pc qui tente des enregistrements automatiques (par exemple un forum), nous propose un Captcha,
c'est-à-dire une image très déformée qui ne peut pas être retracée par des algorithmes ocr (la reconnaissance optique des caractères, un algorithme d'intelligence artificielle), mais seulement (avec espoir) par les humains. captcha signifie "test d'entrainement public complètement automatisé pour distinguer les ordinateurs et les humains", c'est-à-dire "test d'entrainement public et complètement automatique pour distinguer les ordinateurs et les humains".

l'essai de turage, tel que défini, peut être facilement confondu, a en fait été plusieurs fois invalidé et réécrit pour essayer de l'améliorer. Au fil du temps, la définition a été modifiée, limata, pour essayer de la rendre autant que possible un "rasol", ou un outil [filosofico] capable de diviser clairement deux catégories, par exemple le droit du mal, ou l'homme des ordinateurs.

les deux réfutations les plus importantes de l'épreuve de turing étaient un programme informatique qui imite un être humain, et un humain qui imite un pc:
le premier, un "chatterbot", ou un "robot bavard", en 1966 a donné la première évasion à l'essai de turing. son nom était Eliza, emprunté à doolittle eliza (pas la chanteuse!) un statut social de fioraia, rozza et infimo, protagoniste du «paresseux» par George Bernard châle. il a réussi à apprendre par cœur les expressions et la façon de parler de la noblesse répétant au perroquet. afin qu'il puisse paraître élégant et raffiné sans perdre l'esprit.
eliza utilise cependant un algorme mis en pratique par notre classe politique actuelle. le logiciel est écrit pour imiter un thérapeute.
lorsqu'une question est posée, eliza remplace les mots par d'autres membres des catégories préemballées, tournant la syntaxe et la rendant contestable. un tel dialogue pourrait être [Uomo-Eliza] "J'ai une forte migraine"[E] "perché ti fa male la testa?"
"perché mia madre mi odia"[E] "Qui d'autre te déteste dans ta famille ? "
le dialogue peut aller de l'avant vers l'obscurité, et un interlocuteur légèrement éveillé peut avoir l'impression de parler à un être humain.
Cela vient du fait que l'homme tend à donner un sens aux mots que pour un pc sont des symboles purs. Bien qu'un linguiste soit conscient que les liens symboliques, syntaxiques et sémantiques entre les mots suivent des règles fixes, le fait de lire dans ces mots une signification cognitive plus profonde reste intact.
 
Vous plaisantez, mais pensez à ce que vous pourriez faire avec la mâchoire.
il arriverait à l'"usine automatique" souhaitée.

imaginez une usine faite seulement de pcs et de robots capables de prendre des commandes de production, organiser selon le type de travail, produire, etc.
Ce serait un cauchemar !
l'étape suivante, pour moi que je suis fataliste, est que "décident" que nous sommes des "espèces sombres".
Il y a deux différences importantes.
le premier est que le raisonnement que vous faites, vous le faites parce que votre but ultime est de vous nourrir, puis mettre en pratique les techniques qui vous permettent de survivre, le PC le fait à la place parce que ce que l'on a demandé.
Oui, je suis d'accord.
La seconde est que... personne n'a expliqué comment évaluer une pomme, vous l'avez appris vous-même. mettre un pc dans un champ, après un an je le trouverais rouillé, mais il ne pourra pas distinguer une pomme d'une poire si personne n'a écrit au sujet du code dédié.
C'est... C'est plus compliqué. Nous savons que la pomme que nous voulons parce que nous sommes "transmis" de génération en génération. Votre père/mère vous a dit que c'était une pomme. à votre père/mère a été expliqué par leurs parents, et ainsi de suite...
Qui a dit le "premier"... ça devient une philosophie !
 
la deuxième réfutation du test de turissage est faite par une autre expérience mentale, la soi-disant "salle chinoise". Nous parlons toujours de problèmes linguistiques, parce que le test de formation est basé sur une question de ce qui est à l'intérieur de la boîte noire. Supposons que nous planifions un ordinateur et qu'il puisse dialoguer dans une langue donnée, comme le chinois. pas comme une eliza, mais exactement comme un être humain, c'est-à-dire, supposons que nous pouvons atteindre un pc qui est capable de compréhension Chinois comme un être humain le ferait. l'ordinateur prendrait des idéogrammes, les traiterait et distribuerait d'autres idéogrammes. on peut donc dire que l'ordinateur comprendre Chinois, parce qu'il n'y a pas de différence entre les réponses de la machine et celles qui donneraient un être humain capable de comprendre le chinois.
Supposons maintenant que moi, qui ne parle pas chinois, je me suis mis dans une pièce appelée « salle chinoise ». J'ai en main, imprimé en italien, la liste du programme utilisé par l'ordinateur. Je pourrais entrer dans les idéogrammes, je les cherche dans la liste, et j'ai lu en italien ce que je dois faire, comment dessiner des idéogrammes. Je me comporterais exactement comme l'ordinateur, mais je ne comprends pas le chinois, je n'ai aucune idée de ce que signifient les symboles entrants et je n'ai aucune idée de la signification de ceux que j'ai dessinés. Et pourtant je peux faire le même travail. Donc, si je ne comprends pas le chinois, je dois conclure que même pas l'ordinateur. comprendre Chinois, mais tout simplement était instruit sur la façon de manipuler des symboles pour imiter la pensée humaine.

En fin de compte, il est si compliqué de comprendre si un PC peut penser ou ne jamais penser, simplement parce que nous ne sommes pas d'accord sur ce que cela signifie. un PC peut se comporter d'une manière identique à un être humain, juste parce qu'il est capable de manipuler des symboles, est-ce qu'il pense, ou pas ? Et sinon, pourquoi ?

considérant toutes ces difficultés, un philosophe, John Searle, a décidé de diviser l'intelligence artificielle en deux branches. la soi-disant forte intelligence artificielle est ce classique des films de science-fiction, où la machine peut réellement penser de manière à pouvoir tous les effets pour remplacer l'homme. Ce que cela signifie n'est pas encore clair.
complètement différent est plutôt la faible intelligence artificielle, celle déjà réalisée par plusieurs programmes qui jouent aux échecs, qui prédisent le temps, etc.

Si le bleu si profond, l'ordinateur qui en 1996 bat kasparov aux échecs n'est pas intelligent, mais seulement rapide à compter, qu'est-ce que cela signifie? Quelle est la différence entre Einstein et l'homme de pluie ? Il a dit : « dire que le bleu profond, jouer aux échecs, n'est pas vraiment penser est comme dire qu'un avion ne vole pas parce qu'il ne claque pas les ailes » signifiant que le bleu profond raisonne simplement différemment de l'homme, mais pas d'une manière moins efficace.
Cependant, il y a un seul élément, identifié par Searle, qui distingue l'intelligence artificielle forte du faible, c'est-à-dire. intentionnalité. kasparov joue aux échecs parce qu'il veut gagner, parce qu'il veut démontrer sa supériorité à une voiture, bleu profond parce qu'il dirige un programme.
 
dans la logique, en mathématiques, mais souvent aussi dans la vie quotidienne, nous sommes amenés à penser au concept de vérité et au concept de faux comme les seules étiquettes à apposer à certains événements. ce n'est rien d'autre qu'une simplification de la réalité toujours utilisée pour simplifier les processus mentaux. C'est une façon de penser si répandue qu'elle a généré des branches philosophiques-logiques entières. Par exemple, la théorie classique des ensembles pose les fondements principalement sur deux axiomes, le principe de non-contradictoryness dit que si un élément appartient à l'ensemble, il ne peut pas en même temps être externe à, ou appartenir à l'ensemble non-; et le principe du troisième exclu qui dit que l'union d'un et non-a doit nécessairement comprendre tous les éléments, ce n'est pas un élément appartenir à un troisième ensemble.

La théorie des ensembles est une construction mathématique qui, comme toutes les constructions mathématiques, naît dans le but de décrire la réalité, ou au moins une partie de la réalité. Malheureusement, la vision dichotomique de la théorie des ensembles, la gestion binaire des biens, ne peut pas décrire avec précision toute une série de phénomènes. Voyons un couple.

la première catégorie de phénomènes qui n'est pas exactement décrite par une vision dichotomique est, par exemple, celle qui est liée à la définition des phénomènes chauds/froids ou jeunes/vieux, etc. S'il est vrai qu'en hiver il fait froid et en été il fait chaud, que se passe-t-il au printemps? Si un nouveau-né est certainement jeune et un centenaire est certainement âgé, comment peut-on définir un enfant de cinquante ans? si l'ensemble «a» est l'ensemble des jeunes, le nouveau-né appartiendra, le centenaire à non-a, mais l'enfant de cinquante ans met en difficulté les axiomes de non-contradictoire et le troisième exclu.

une deuxième catégorie, un peu plus prospère est celle des paradoxes autoréférentiels. si l'ensemble 'a' est l'ensemble de vraies phrases, et alors 'non-a' celui des fausses phrases, l'expression "cette phrase est fausse" dans laquelle elle doit être placée ensemble? Et l'expression "Je suis menteur" où devrait-il aller ?

Il est donc prouvé que la logique dichotomique classique ne peut décrire tout ce qui est réel. Le désir de quelque chose de nouveau est né au début des années 60. les soi-disant "ensembles flous" sont nés, c'est-à-dire des ensembles d'escargots. la théorie des ensembles nuancés n'inclut pas les principes de non-contradictoire et le troisième exclu, mais intègre un nouveau concept, l'intangible de confiance. Si tel est le cas 'a' est l'ensemble nuancé des jeunes, le nouveau-né appartiendra à 'a' et le centenaire à 'non-a', mais un jeune de vingt ans appartiendra à 80 % à 'a' et à 20 % à non-a; 50 à 'a' et ainsi de suite.
semble pure spéculation philosophique, et peut-être aussi, mais nous revenons à l'exemple de la température. Nous prenons un climatiseur partagé, comme ceux de nos maisons. Les climatiseurs domestiques (pour nous dire, ceux sans onduleurs) travaillent avec une logique de relais. lors du réglage d'une température de référence (point de consigne), le climatiseur s'éteint n degrés au-dessous de cette température et s'allume n degrés au-dessus. 'n' est appelé la bande d'hystérésis, et sert à éviter qu'à proximité de la température de réglage la fréquence de commutation devienne trop élevée. Cela signifie que le conditionneur sera soit éteint ou à puissance maximale, et que la température dans la pièce ne sera jamais que "droit", mais montera entre droite-n et droite+n.
Imaginons maintenant un contrôle logique flou. Il y aura deux fonctions, le bleu est « froid » et le rouge est « chaud ». dans la zone où il fait "un peu froid et un peu chaud" il sera possible de contrôler le climatiseur afin de ne pas laisser aller à la puissance maximale. de cette façon la consommation sera optimisée et la température sera plus proche de la « droite ».

Dans la réalité industrielle il y a beaucoup de machines simples, des machines à laver aux machines à café automatiques, qui utilisent la logique floue. Au Japon, où ces appareils sont nés pour la première fois, le terme "fuzzy" a pris le sens de "intelligent" et avait un énorme pouvoir de commercialisation.
 

Pièces jointes

  • Fuzzy.JPG
    Fuzzy.JPG
    18.1 KB · Affichages: 5
son nom était Eliza, emprunté à doolittle eliza. . . .
Il pense que je ne connaissais à Doolittle que Jimmy Doolittle, protagoniste du raid aérien sur Tokyo le 18 avril 1942, connu sous le nom de Doolittle. . . .
tous très intéressant fulvio mais, quand nous parlons de ia dans les jeux vidéo, nous utilisons un terme non pertinent?
parce que le marché est très important pour la "qualité" de l'ia.
 
Il pense que je ne connaissais à Doolittle que Jimmy Doolittle, protagoniste du raid aérien sur Tokyo le 18 avril 1942, connu sous le nom de Doolittle. . . .
tous très intéressant fulvio mais, quand nous parlons de ia dans les jeux vidéo, nous utilisons un terme non pertinent?
parce que le marché est très important pour la "qualité" de l'ia.
Que voulez-vous dire par jeux vidéo ? Je ne sais pas. Je n'ai jamais entendu parler de lui.
plus que l'intelligence artificielle du jeu vidéo cependant, je me concentrerais sur la stupidité naturelle de ceux en face...:tongue:
 
Que voulez-vous dire par jeux vidéo ? Je ne sais pas. Je n'ai jamais entendu parler de lui.
plus que l'intelligence artificielle du jeu vidéo cependant, je me concentrerais sur la stupidité naturelle de ceux en face...:tongue:
Je peux faire le troll??

C'est comme le i-phone, le seul smartphone le plus intelligent de son propriétaire ! :biggrin : :biggrin :
 
Je ne connaissais que Jimmy Doolittle.
une menotte... Si vous allez sur Google Earth, choisissez la planète "mart" et recherchez "meliza", le programme vous emmène à un point de la planète où il y a un extraterrestre.
vous pouvez commencer une conversation avec lui et il vous répondra... avec le code d'origine eliza
C'est la première fois qu'il y a un problème.
 

Pièces jointes

  • Meliza.JPG
    Meliza.JPG
    41 KB · Affichages: 13

Statistiques du forum

Sujets
58 521
Messages
499 056
Membres
104 110
Dernier membre
ChristianR

Membres en ligne

Aucun membre en ligne actuellement.
Retour
Haut