archée
                 • • •  revue d'art en ligne : arts médiatiques & cyberculture


L'œuvre d’art portée disparue au lieu de son événement même

Norbert Hillaire

On sait que les compositeurs de l’âge classique oeuvraient dans un système qui leur était imposé et qui se présentait pourtant comme « naturel ». De manière générale, alors que l’art de l’âge classique, repose sur le respect de canons fixés par la tradition, l’art de l’âge moderne n’a de cesse d’inventer ses modèles en se projetant vers le futur, et non à les rechercher dans l’imitation des anciens. Cette libération a cependant son prix, elle peut conduire à une forme de solipsisme, risque auquel les compositeurs ont cherché à répondre en introduisant dans la musique les problématiques du hasard et de la détermination, de la nécessité et de la contingence ainsi qu’une interrogation très poussée sur ce qui constitue une œuvre comme ouverte ou fermée, fixe ou variable. L’œuvre semble partagée entre deux polarités : celle de la norme et celle de l’écart, celle du contrôle et celle de la liberté : dans la musique cela se traduit par une volonté de maîtrise absolue de l’œuvre d’un côté, ou au contraire par une extrême indétermination, qui laisse une place importante à l’interprète, au hasard, à l’aléa. On aperçoit ici une problématique fondamentale de notre temps, et qui est au cœur même du paradigme des réseaux, en même temps qu’elle traverse l’art de l’âge moderne et contemporain : c’est la question du contrôle et de la liberté, du contrôle et de la libre circulation. Il semble, qu’avec les réseaux numériques, et l’essor incontrôlé des technologies, cette question n’en finisse pas de se poser avec encore plus d’insistance à l’art de notre temps.

Un autre couple accompagne la modernité (il s’annonce déjà avec l’avènement du baroque) et semble se prolonger dans l’art de notre temps, c’est le problème de l’équilibre, ou du choix entre une esthétique de la surcharge et de l’ornement, et une esthétique de la réduction minimaliste, ce fameux less is more que l’architecte Ludwig Mies Van Der Roh avait placé en exergue au programme du fonctionnalisme analytique des débuts du siècle dernier.

Ce problème est en effet posé avec d’autant plus d’acuité que la modernité, c’est la fin des règles et des conventions qui permettaient de contenir l’œuvre à l’intérieur de certaines limites formelles d’expression, limites qui lui ouvraient paradoxalement les conditions mêmes de sa reconnaissance et de sa lisibilité. Avec la fin des règles, des codes et des conventions, c’est alors, en même temps que l’affirmation de l’autonomie de l’art, le risque du solipsisme qui menace, et, en effet, la modernité aura été ce grand malentendu entre l’art et ses publics (qui fera dire à Baudelaire que « le monde roule sur des malentendus »).

Le chef d’œuvre inconnu ou la fin des points de vue surplombants 

Le concept d’autonomie : du monde de l’art aux sciences cognitives 

La question de l’autoréférence et le monde des réseaux 

Le modèle « énactif » de l’œuvre d’art et ses limites 

 

NOTE(S)

1 Italo Calvino, Leçons américaines, Paris, Points, 2001

2 Cette nouvelle ingénierie de la connaissance a fait l’objet de plusieurs travaux et publications, en particulier dans Art press +, oct. 1999 (hors-série Internet all over. L’Art et la Toile), les articles suivants : « Préface : Internet all over ? » no 12.1, « Quelle politique des enseignements artistiques à l’heure d’Internet ? » no 12.2, « Internet : un défi pour les enseignements artistiques du supérieur, entretien avec Francine Demichel » no 12.3, « Le réseau : un enjeu et un support, entretien avec Jacques Imbert et Pierre Lère » no 12.4. J’ai également abordé la question de la nouvelle ingénierie de la connaissance et de la transformation des modèles d’éducation dans les travaux suivants : Ex Machina. Étude pour une nouvelle publication au Centre Pompidou. Paris, Centre Pompidou, 1994 (Rapport au Centre Georges Pompidou, en vue de l’édition électronique de la revue Traverses) no 5, L’offre de services pédagogiques et culturels en ligne au regard des objectifs de la BPS, Paris, La Cinquième, 1998-97 (2 volumes) no 7. On pourra enfin se référer à l’article paru dans la revue Traverses nouvelle formule « Valéry et l’hypertexte », Traverses, no 2 < www.cnac-gp.fr > no 10. Ce domaine de recherche a fait également l’objet d’autres travaux référencés dans la liste de mes publications : Programme « Web et action culturelle internationale » pour la création d’un Centre Culturel Virtuel », Ministère des Affaires Étrangères, 1999.

3 Edmond Couchot, La technologie dans l’art, op. cit.

4 Umberto Eco, Lector in fabula, Paris, Grasset, 1985. Ce thème est repris dans Les Limites de l’interprétation, Paris, Grasset, 1992, en particulier au chapitre 3, « Le travail de l’interprétation »

5 Voir Norbert Hillaire, « Des images dans la littérature », op. cit.

6 Hans R. Jauss, Pour une esthétique de la réception, op. cit.

7 Alain Badiou, Le Siècle, le Seuil, 2005, p. 227

8 Nicolas Bourriaud, « La mutuelle des formes », in Anatomie de cultures électronique, Art Press Hors série 1998.

9 Michel Guérin, argument d’un colloque organisé en novembre prochain à l’Université de Provence sur le thème « les limites de l’œuvre » ; voir aussi, du même auteur, Nihilisme et modernité, Jacqueline Chambon, 2005

10 J’emprunte à Edmond Couchot ces rappels historiques relatifs à la naissance de ce que l’on peut appeler une « seconde interactivité », rappels que nous reprenons nous-mêmes dans notre ouvrage « l’art numérique », op. cit.

11 En 1984, Christopher Langton conçut un automate autoreproducteur sur le modèle de celui de Von Neumann. Il est fait d’une membrane de cellules enfermant un noyau constitué d’une chaîne de cellules représentant son programme d’autoreproduction (son matériel génétique). À chaque cycle les mots se propagent vers la queue, certains mots commencent une nouvelle chaîne à angle droit. Lorsque la boucle rencontre la membrane il y a rupture de l’automate en 2 automates identiques et la reproduction peut se poursuivre ainsi indéfiniment.

13 De même que le connexionnisme, en simulant le fonctionnement du système nerveux, ouvre la voie à une autre forme de pensée qu’algorithmique, l’évolutionnisme, en s’inspirant de la façon dont la nature trouve des solutions à des questions de survie, permet de définir des systèmes résolvant des problèmes sans passer par l’écriture de programmes. Dans les années soixante-dix John Holland inventa les algorithmes génétiques dans ce but. Il s’agit de traiter des populations de solutions (construites aléatoirement, donc peu performantes) que l’on fait évoluer par croisements et mutations en sélectionnant celles qui répondent le mieux à une certaine fonction d’adaptation. La théorie de l’évolution stipule que de telles populations peuvent s’améliorer au cours de leurs reproductions et que, au bout d’un certain temps, apparaissent des solutions optimales. À la différence des méthodes classiques qui ne peuvent résoudre que les problèmes parfaitement bien posés, les algorithmes génétiques peuvent trouver une réponse optimale à des problèmes sans solution, ou bien encore mal posés, et c’est la raison pour laquelle nous les utilisons dans le cadre de la création artistique. Ce sont des algorithmes d’exploration faisant appel à la sélection et à la génétique. Ils favorisent les organismes les mieux adaptés par un échange aléatoire d’information et ne sont pas sans rappeler la façon dont les êtres vivants procèdent pour résoudre des problèmes. Leur principale application est l’amélioration de la robustesse des systèmes artificiels devant évoluer dans un environnement imprévisible, on en attend aussi une amélioration des connaissances sur les systèmes naturels. Les algorithmes génétiques sont caractérisés par les propriétés suivantes :

1) Ils utilisent un codage des paramètres et non les paramètres eux-mêmes. Alors que dans les méthodes traditionnelles le codage est intimement lié à la spécificité du problème à résoudre, dans les algorithmes génétiques le codage est arbitraire.

2) Ils travaillent sur une population d’individus et non pas sur des points isolés. La recherche d’un extremum est menée en parallèle par plusieurs individus, réduisant ainsi le risque de n’atteindre qu’un extremum local.

3) Ils n’utilisent pas les propriétés de la fonction à optimiser, en particulier celle-ci n’est supposée ni dérivable ni continue, d’où leur généralité d’application.

4) Enfin ils sont probabilistes et non pas déterministes, se rapprochant par là des phénomènes naturels.

5) Ils empruntent leur vocabulaire à celui de la génétique naturelle.

13 Concept que l’on doit à Francisco J. Varela. Voir à ce propos, Autonomie et connaissance. Essai sur le vivant, Seuil, 1989, Paris.

14 Daniel Andler, op. cit.

15 Vanevah Bush, « As we may think », Atlantic, août 1945 < www.isg.sfu.ca/ duchier/misc/vbush >. Voir aussi, Norbert Hillaire, « Valéry et l’hypertexte », op. cit.

16 Vanevah Bush, op.cit.

17 Joseph Beuys, Par la présente, je n’appartiens plus à l’art, op. cit.

18 Roy Ascott, « Réponse au questionnaire de Mario Costa ». Co-incidences, op. cit., pp. 14-15

19 idem

20 Jean-Pierre Balpe, Contextes de l’art numérique, Paris, Hermès, 2000, p. 191.

21 Alain badiou, op.cit.

22 Zhu Yu, « Transgresser le principe céleste », Dialogue avec le groupe cadavre, Art press Hors série Représenter l’horreur, mai 2001

23 Voir Jacques Rancière, Malaise dans l’esthétique, Galilée, 2004

24 Jacques Rancière, ibid., p.75

25 Cf. F. Varela, Autonomie et connaissance, Paris, Seuil, 1989

 

NOTICE BIOGRAPHIQUE

Norbert Hillaire

Professeur des Universités, Norbert Hillaire est un théoricien de l’art et des technologies. Il enseigne dans le Département « Art, communication, langages » de l’Université de Nice-Sophia Antipolis.

Il dirige le Master Recherche Distic (Dispositifs sociotechniques d’information et de communication) et codirige le Laboratoire I3M (Information, milieux, médias, médiations).

Norbert Hillaire a été, dans les années 80/90, l’un des initiateurs en France de la réflexion critique et prospective sur les problèmes posés par l’essor des technologies et des réseaux numériques dans l’art et la culture.

Comme critique d’art, théoricien spécialisé et responsable de missions dans les domaines nouvelles technologies, l’art et l’environnement, il a dirigé plusieurs numéros spéciaux de la revue « Art press » sur ces thèmes ainsi que plusieurs missions d’étude (DAP, Centre Pompidou, Datar, etc.).

Dernières publications : Œuvre et Lieu (en collaboration avec Anne–Marie Charbonneaux) Flammarion 2002, L’art numérique (en collaboration avec Edmond Couchot), Flammarion, collection Champs, 2003.

Articles complémentaires :

Amar Lakel et Tristan Trémeau : « L’œuvre d’art, le spectateur, son aura et ses experts », L’art même, no 25, http://www.cfwb.be/lartmeme/

 

haut de la page / retour à la page d'accueil /

 


 

Cette publication a été rendue possible grâce au soutien financier d'Hexagram, du groupe de recherche des arts médiatiques (GRAM), de la Faculté des arts de l'UQAM, de la Chaire du Canada en esthétique et poétique de l'UQÀM (CEP), ainsi qu'à une subvention, pour une quatorzième année consécutive, du Conseil des arts du Canada (CAC).