créer de la musique à partir de texte avec une interface pour éditer des morceaux musicaux

Table des matières

L’année dernière, Meta a déjà lancé un outil pour générer de la musique à partir de instructions ou un texte. Désormais Adobe ne veut pas perdre un instant dans cette course à l’intelligence artificielle générative avec une nouvelle solution qu’il vient de présenter : Contrôle GenAI du projet Music.

Cet outil se concentre sur la génération de musique à partir de instructions, et la possibilité d’éditer de l’audio et de la musique personnalisée grâce à une série de commandes qui permettent une édition plus précise. C’est-à-dire qu’il ne s’agit pas seulement d’introduire une série de textes, mais plutôt Étend l’expérience pour contrôler ou fusionner les clips audio générés.

Nicholas Bryan, chercheur scientifique chez Adobe Research et l’un des créateurs de cette technologie, soutient que cette IA générative Ce sera comme un co-créateur qui aidera l’utilisateur à créer de la musique pour leurs projets, qu’il s’agisse d’artistes voix off ou de créateurs de contenu, ou de toute personne ayant besoin d’un type d’audio avec un type de musique, un ton ou une durée.

Ici Project Music GenAI

Adobe a déjà franchi un grand pas l’année dernière avec Firefly, son IA générative pour la génération d’images, et l’intégration de fonctions similaires dans Photoshop avec upscaling génératif. L’une de ses meilleures contributions est les informations d’identification de contenu (utilisé par OpenAI dans DALL-E 3), qui garantit que la génération d’images AI inclut une étiquette indiquant l’outil avec lequel elle a été utilisée.

Désormais, avec Project Music GenAI Control, entrer à nouveau dans le domaine de l’édition que vous connaissez bien grâce à certains de ses programmes comme Adobe Premiere, qui en plus de l’édition vidéo, dispose de précieux outils pour l’édition audio. Votre outil fonctionne comme ceci :

  • Vous introduisez un rapide dans votre modèle de langage IAavec une méthode qu’Adobe utilise déjà dans Firefly.
  • peut être saisi instructions pour générer de la musique comme : « power rock », « musique dance optimiste » ou « jazz triste ».
  • Lorsque le clip audio est généré, l’utilisateur, via une interface simple, peut transformer les clips en fonction d’une mélodie de référence, ajuster le tempo, la structure et répéter les motifs d’un morceau de musique.

Non seulement vous pourrez modifier ces paramètres, mais vous aurez également la possibilité de augmenter et diminuer l’intensité audio, prolonger la durée d’un clipremixez une section ou générez une boucle musicale à l’infini si vous le souhaitez.

Projet Music GenAI Contrôle | Recherche Adobe

Manuel Ramírez

Une autre de ses merveilleuses expériences illustrées par votre site websera d’éviter d’avoir à couper les morceaux pour créer la musique d’introduction ou l’audio de fond. Project Music GenAI aidera les utilisateurs à créer ces morceaux de musique du début à la fin afin qu’ils utilisent pratiquement leur énergie dans la créativité.

Pour mieux comprendre son fonctionnement, c’est comme si Gemini ou Copilot généraient des images avec l’intelligence artificielle et a donné les outils nécessaires pour changer le geste d’une personne, la couleur de ses cheveux ou même la forme de tout objet apparaissant dans la pièce générée.

Image d’Adobe Premiere, qui pourrait inclure cette nouvelle solution

Adobe

L’Android gratuit

Pour le moment, on ne sait pas quand il sera déployé et de quelle manière il le fera, c’est-à-dire s’il s’agira d’un outil Web unique comme Firefly ou s’il fera partie d’autres comme Adobe Premiere. Cela peut arriver de la même manière que Firefly, qui, peu de temps après avoir montré son fonctionnement, la société a offert l’accès à la version bêta, même si ici la ruée est différente.

Cela peut vous intéresser

Leave a Reply