Adobe führt mehr generative KI-Funktionen für Illustrator und Photoshop ein
So machen Sie Adobe Generative Fill and Expand weniger frustrierend
Das Experimentieren mit Auswahlen, Kontext und Eingabeaufforderungen kann für das Erzielen eines qualitativ hochwertigen Ergebnisses eine große Rolle spielen. Denken Sie unbedingt an die Größe des Bereichs, den Sie erstellen, und arbeiten Sie in iterativen Schritten, anstatt zu versuchen, mit einer einzigen Eingabeaufforderung das perfekte Ergebnis zu erzielen. Führende Unternehmen wie die Coca-Cola Company, Dick's Sporting Goods, Major League Baseball und Marriott International nutzen derzeit die Adobe Experience Platform (AEP), um ihre Initiativen zur Verbesserung des Kundenerlebnisses voranzutreiben. Anscheinend können Sie die neue Funktion „Generative Fill“ erst verwenden, wenn Sie einige personenbezogene Daten mit dem Cloud-Dienst Adobe Behance geteilt haben. Behance-Benutzer hingegen haben ihre vertraulichen Informationen bereits mit dem Dienst geteilt und können auf die Photoshop-Funktion „Generative Fill AI“ zugreifen.
Und mit großer Macht geht auch Verantwortung einher. Deshalb möchte Adobe nach eigenen Angaben ein vertrauenswürdiger Partner für Kreative sein, der die kreative Community respektvoll und unterstützend behandelt. Die generativen KI-Tools von Adobe Firefly als Beifahrer können grenzenlose Möglichkeiten zur Steigerung von Produktivität und Kreativität eröffnen. Jeder Content-Ersteller, Solounternehmer, Nebenerwerb und freiberufliche Künstler ist schon einmal auf Hindernisse gestoßen, vielleicht aufgrund seines Könnens oder vielleicht aus Zeitmangel. es passiert. Wenn der Aufbau eines Teams nicht möglich ist, kann die generative KI von Adobe Firefly helfen, diese Lücken zu schließen. Zusätzliche Credits können über die Creative Cloud-App erworben werden, jedoch nur 100 mehr pro Monat. Dies kostet $4,99 pro Monat bei monatlicher Abrechnung oder $49,99 bei Vorauszahlung für ein ganzes Jahr.
Die kürzlich eingeführten GPU-beschleunigten Funktionen „Enhance Speech“, „AI Audio Category Tagging“ und „Filler Word Detection“ ermöglichen es Redakteuren, mithilfe von KI Videoszenen intelligent zu schneiden und zu ändern. Stattdessen behauptet das Unternehmen, dass diese Aktualisierung seiner Bedingungen dazu dienen sollte, die Verbesserungen der Moderationsprozesse deutlich zu machen. Aufgrund der „Explosion“ der generativen KI müsse Adobe laut eigener Aussage die Überprüfungsprozesse für Inhaltseinreichungen stärker durch menschliche Moderation ergänzen.
Wird die Aktie ein KI-Gewinner?
„Hintergrund entfernen“ ist eine gute Wahl für diejenigen, die eine Komposition erstellen möchten, da lediglich das Entfernen des Hintergrunds erforderlich ist. Einige Stock-Kunden möchten jedoch keinen Hintergrund. sie erfordern ein ganz anderes. Es bietet neue Tools wie die generative Formfüllung, sodass Sie Formen mit nur wenigen beschreibenden Wörtern detaillierte Vektoren hinzufügen können. Eine weitere Funktion ist die „Text-zu-Muster“-Funktion, die die Erstellung anpassbarer, skalierbarer Vektormuster ermöglicht. Dieses Update integriert KI auf eine Weise, die die menschliche Kreativität unterstützt und verstärkt, anstatt sie zu ersetzen.
Die Partnerschaft zielt außerdem darauf ab, Content-Lieferketten mithilfe von GenAI und Adobe Express zu modernisieren, um innovative Arbeitsabläufe zu implementieren, die es einem vielfältigeren und kollaborativeren Team ermöglichen, kreative Aufgaben zu bewältigen. Zwar haben die Unternehmen noch keine weiteren Einzelheiten zu den gemeinsam auf den Markt kommenden Produkten bekannt gegeben, doch haben sie bereits die folgenden vier unternehmensübergreifenden Integrationen skizziert, auf die gemeinsame Kunden zugreifen können. Diese funktionieren ähnlich wie adaptive Voreinstellungen, werden jedoch angezeigt und ausgeblendet, je nachdem, was in Ihrem Bild identifiziert wird. Wenn eine Person lächelt, werden Ihnen Schnellaktionen angezeigt, die sich beispielsweise auf das Aufhellen der Zähne, das Hervorheben der Augen oder eine realistische Hautglättung beziehen. Die neuen adaptiven Voreinstellungen scannen Ihr Bild mithilfe von KI und schlagen Voreinstellungen vor, die am besten zum Bildinhalt passen. Sie können sie zwar nach Ihren Wünschen bearbeiten, passen sich jedoch an das an, was die KI für Ihr Bild am wichtigsten hält.
Adobe Firefly
Illustrator, der Vektorgrafik-Editor von Adobe, enthält jetzt „Objekte auf Pfad“, eine Funktion, mit der Benutzer Objekte schnell entlang eines beliebigen Pfads auf ihrer Zeichenfläche anordnen können. Die Software verfügt außerdem über Enhanced Image Trace, das laut Adobe die Konvertierung von Bildern in Vektoren verbessert. Photoshop, das Flaggschiff unter den Bildbearbeitungsprogrammen von Adobe, hat mehrere neue Funktionen erhalten.
Rund 901.000.000 Verbraucher berichten von einem verbesserten Online-Einkaufserlebnis dank KI. Zu den wichtigsten Verbesserungsbereichen zählen die Produktpersonalisierung, Serviceempfehlungen und die Möglichkeit, virtuelle Bilder von sich selbst beim Tragen von Produkten anzuzeigen. 91% gibt an, dass dies das Kaufvertrauen stärken würde. Adobe machte die Ankündigung bei der Eröffnungs-Keynote der diesjährigen MAX-Konferenz und plant, dieses neue generative KI-Modell von Firefly in die Workflows von Premiere Pro zu integrieren (mehr dazu später).
Durch Klicken auf die Schaltfläche akzeptiere ich die Nutzungsbedingungen des Dienstes und seine Datenschutzrichtlinie und stimme der Verarbeitung personenbezogener Daten zu. Lesen Sie unseren Artikel zu den Trends in der digitalen Kunst 2025 und unser Feature zu den Trends in der 3D-Kunst 2025, um die neuesten Prognosen zu Technologie, Stil und Arbeitsabläufen zu erhalten. Für optimale Ergebnisse bei der Verwendung von Gen Remove ist es wichtig, das zu entfernende Objekt vollständig zu entfernen, einschließlich Schatten und Reflexionen. Jedes noch so kleine Fragment führt dazu, dass die KI denkt, sie müsse ein neues Objekt an das übrig gebliebene Stück anfügen. Das Team des GIP Digital Watch Observatory, bestehend aus über 30 Digitalpolitik-Experten aus aller Welt, ist führend in der Forschung und Analyse digitalpolitischer Fragen. Unterstützt wird das Team durch die kreative Kraft des Creative Lab Diplo und die technische Expertise des Diplo-Technikteams.
Die Wertentwicklung einer Anlage in der Vergangenheit ist kein Hinweis oder keine Garantie für zukünftigen Erfolg oder zukünftige Wertentwicklung. Wir übernehmen keine Zusicherungen oder Garantien hinsichtlich der Ratsamkeit einer Investition in bestimmte Wertpapiere oder der Nutzung bestimmter Anlagestrategien. Adobe habe KI-Technologien in seine bestehenden Produkte wie Photoshop, Illustrator und Premiere Pro integriert, was den Benutzern mehr Gründe gebe, die Software zu verwenden, sagte Durn. Die Digitalmedien- und Marketingsoftware von Adobe (ADBE) beeindruckte die Wall-Street-Analysten zu Beginn der Adobe Max-Konferenz am Montag mit Innovationen im Bereich generativer KI. Sie können jetzt Videohintergründe in Express entfernen und so dieselben Bearbeitungen auf Ihren Inhalt anwenden, unabhängig davon, ob Sie ein Foto oder ein Video eines ausgeschnittenen Motivs verwenden. Adobe Express hat ein Tool zum dynamischen Reflow-Text eingeführt, mit dem Sie die Größe Ihrer Express-Zeichenflächen mithilfe des neuesten generativen Tools zur Größenänderung einfach ändern können. Der Text wird dynamisch an den von Ihnen erstellten Platz angepasst.
Dazu gehören Distraction Removal, das mithilfe von KI unerwünschte Elemente aus Bildern entfernt, und Generative Workspace, ein Tool zur gleichzeitigen Ideenfindung und Konzeptentwicklung. Das Unternehmen, das Software wie Photoshop und Illustrator herstellt, stellte über 100 neue Funktionen für seine Creative Cloud-Plattform vor, von denen viele künstliche Intelligenz nutzen, um die Prozesse der Inhaltserstellung und -bearbeitung zu verbessern. Adobe, bekannt für seine Kreativ- und Marketing-Tools, hat auf seiner jährlichen MAX-Konferenz in Miami Beach eine Reihe neuer Funktionen und Produkte angekündigt. Die Videoerweiterung für das Firefly-Tool soll als Betaversion erscheinen und in Adobes führende Videobearbeitungssoftware Premiere Pro integriert werden. Ziel dieser Integration ist es, gängige redaktionelle Aufgaben zu rationalisieren und die kreativen Möglichkeiten für Videoprofis zu erweitern.
Das neueste Firefly Vector AI-Modell des Unternehmens steht im Mittelpunkt dieser Verbesserungen und verspricht, die kreativen Arbeitsabläufe von Grafikdesignern, Modedesignern, Innenarchitekten oder professionellen Kreativen deutlich zu beschleunigen. In einem separaten Beitrag der Adobe Community gibt ein professioneller Fotograf an, dass er die generative Füllung „tausende Male am Tag“ verwendet, um seine Bilder zu „reparieren“. Als Adobe im Mai das von Firefly unterstützte Tool „Generative Remove“ in Adobe Lightroom und Adobe Camera Raw als Beta-Funktion vorstellte, funktionierte es die meiste Zeit gut. Allerdings ist Generative Remove, das nun offiziell aus der Betaphase heraus ist, in einigen Situationen verwirrenderweise schlechter geworden. Die generativen Füll- und Erweiterungswerkzeuge von Adobe können frustrierend sein, mit den richtigen Techniken können sie jedoch auch sehr nützlich sein.
Dies ist ein wichtiger Unterschied, da die vorhandenen KI-basierten Entfernungstools von Photoshop erfordern, dass der Editor einen Pinsel oder ein Auswahlwerkzeug verwendet, um den zu entfernenden Teil des Bildes hervorzuheben. In Vorschauen demonstrierte Adobe, wie sich mit dem Tool Stromleitungen und Personen ohne Maskierung aus dem Hintergrund entfernen lassen. Das dritte KI-basierte Tool für Videos, das das Unternehmen zum Start von Adobe Max angekündigt hat, ist die Möglichkeit, aus einer Textaufforderung ein Video zu erstellen. Während „Text-to-Video“ Adobes Videovariante ist, bei der aus dem Nichts etwas geschaffen wird, wies das Unternehmen auch darauf hin, dass damit Overlays, Animationen, Textgrafiken oder B-Rolls erstellt werden können, die zu vorhandenen, mit einer Kamera erstellten Videos hinzugefügt werden können. Es basiert auf Generative Fill, aber anstatt einen vom Benutzer ausgewählten Teil eines Bildes durch KI-generierten Inhalt zu ersetzen, erkennt und ersetzt es automatisch den Hintergrund des Bildes.
Hinter den Kulissen: Wie Paramount+ die generative KI von Adobe Firefly in einer Social-Media-Kampagne für den Film IF einsetzte – der Adobe-Blog
Hinter den Kulissen: Wie Paramount+ die generative KI von Adobe Firefly in einer Social-Media-Kampagne für den Film IF einsetzte.
Gepostet: Mo, 09. Dez. 2024 08:00:00 GMT [Quelle]
Das Tool „Generative Shape Fill“ basiert auf der neuesten Betaversion des Firefly Vector Model, die zusätzliche Geschwindigkeit, Leistung und Präzision bietet. Es umfasst Text-zu-Bild und generative Füllung, Videovorlagen, Stock-Musik, Bild- und Design-Assets sowie Schnellbearbeitungstools, mit denen Sie unterwegs problemlos Inhalte erstellen können. Sobald Sie Inhalte erstellt haben, können Sie diese planen, in der Vorschau anzeigen und auf TikTok, Instagram, Facebook und Pinterest veröffentlichen, ohne die App zu verlassen. Adobe hat den wachsenden Bedarf an effizienter Zusammenarbeit in kreativen Arbeitsabläufen erkannt und die allgemeine Verfügbarkeit einer neuen Version von Frame.io angekündigt.
Einige von Ihnen könnten aussteigen, weil Sie die Jahresgebühr nicht im Voraus bezahlen oder sich die monatliche Erhöhung nicht leisten können. Wir haben kaum Lust, uns damit zu beschäftigen, denn wir brauchen mehr Geld, um uns immer mehr KI-bezogene Gimmicks auszudenken, die Fotografen wie Sie kaum jemals verwenden werden. Es liegt nicht so sehr daran, dass die Tools von Adobe nicht gut funktionieren, sondern eher an der Art und Weise, wie sie nicht gut funktionieren. Wenn wir nicht versuchen würden, unsere Arbeit zu erledigen, wären einige dieser Ergebnisse wirklich lustig. Im Fall von Bitcoin scheint es lediglich so, als würde versucht, die gemalten Pixel durch etwas zu ersetzen, das in seiner Form dem erkannten „Objekt“ ähnelt, das der Benutzer entfernen möchte. Letzte Woche hatte ich Mühe, mit einem der generativen oder inhaltsbasierten Tools von Adobe einen Hintergrund zu erweitern und einen Bereich für ein Miniaturbild abzudecken, an dem ich für unseren YouTube-Kanal arbeitete. Vor den Updates im letzten Jahr wurden die Aufgaben, die ich Photoshop anvertraute, schnell und problemlos erledigt.
Adobe hört auf Feedback und nimmt Optimierungen vor, aber Inkonsistenzen bei der KI deuten auf ein größeres Problem hin. Generative KI ist noch eine junge Technologie und es ist klar, dass sie sich nicht mit der Zeit immer weiter verbessert. Manchmal wird es schlimmer, und für diejenigen mit einem auf KI basierenden Workflow ist dies ein Problem, das den Nutzen generativer KI-Tools insgesamt untergräbt.
Das neue KI-Tool von Adobe kann 10.000 Bilder mit einem Klick bearbeiten
Das Adobe Firefly Video Model – jetzt in einer begrenzten Betaversion unter Firefly.Adobe.com verfügbar – bringt generative KI in Videos und markiert den nächsten Fortschritt in der Videobearbeitung. Es ermöglicht Benutzern, Videoclips mithilfe einfacher Textaufforderungen oder Bilder zu erstellen und zu bearbeiten und so Inhaltslücken zu füllen, ohne dass Aufnahmen neu aufgenommen, verlängert oder neu gerahmt werden müssen. Es kann auch zum Erstellen von Videoclip-Prototypen als Inspiration für zukünftige Aufnahmen verwendet werden. Adobe hat letzten Monat sein Firefly-Videomodell vorgestellt und eine Vorschau auf eine Reihe neuer generativer KI-Videofunktionen gegeben. Heute wurde das Firefly-Videomodell offiziell in der öffentlichen Betaversion gestartet und ist das erste öffentlich verfügbare generative Videomodell, das auf kommerzielle Sicherheit ausgelegt ist.
Dies deckt den Hauptsatz an Steuerelementen ab, der die rechte Seite Ihres Bildes überlagert. Auf der linken Seite gibt es jedoch einen kleineren Satz an Steuerelementen, den wir ebenfalls untersuchen müssen. Zurück zu den drei Steuerelementen. Mit der mittleren Option können Sie einen Download des ausgewählten Bildes starten. Während Firefly beginnt, das Bild für den Download vorzubereiten, wird ein kleines Overlay-Dialogfeld angezeigt.
Darüber hinaus gibt es Text to Pattern, Style Reference und weitere Workflow-Verbesserungen, die langwierige Design- und Zeichenaufgaben erheblich beschleunigen können, sodass Designer tiefer in ihre Arbeit eintauchen können. Von der ersten Idee bis zur endgültigen Produktion wird alles durch KI unterstützt. Wenn Sie zufällig ein Team um sich haben, tragen Funktionen wie Markenkits, gemeinsame Bearbeitung und Kommentieren zu einer schnelleren und reibungsloseren Zusammenarbeit bei.
Adobe nutzt KI, um den kreativen Prozess der Grafikgestaltung deutlich einfacher und schneller zu gestalten, … [+] sodass Benutzer von Programmen wie Illustrator und Photoshop mehr Zeit für den kreativen Prozess haben. Adobe hat einige Formulierungen integriert, die offenbar noch aus der Zeit der Erstveröffentlichung von Firefly stammen. Beispielsweise legt das Unternehmen fest, dass die oben genannten Kreditverbrauchsraten für sogenannte „Standardbilder“ gelten, die eine Auflösung von bis zu 2.000 x 2.000 Pixeln haben – die ursprüngliche Maximalauflösung der generativen KI von Firefly. In die gleiche Richtung geht auch Adobe, das den meisten Benutzern keine Mitteilung über diese Änderungen gegeben hat, da die Beschränkungen für die meisten Pläne noch nicht durchgesetzt werden.
Bisher wurde Firefly von zahlreichen Unternehmenskunden von Adobe zur Optimierung von Arbeitsabläufen und Skalierung der Inhaltserstellung verwendet, darunter PepsiCo/Gatorade, IBM, Mattel und mehr. Diese Sorge rührt von der Vorstellung her, dass KI-generierte Inhalte letztendlich einen großen Teil der Trainingsdaten ausmachen werden und die Ergebnisse KI-Schlamperei sein werden – schiefe, fehlerhafte oder unbrauchbare Bilder. Dieser sich selbst verstärkende Kreislauf würde die Werkzeuge letztendlich unbrauchbar machen und die Qualität der Ergebnisse würde nachlassen. Besonders beunruhigend sind die Künstler, die das Gefühl haben, dass ihr einzigartiger Stil bereits von Generatoren vereinnahmt wird, was zu anhaltenden Klagen wegen Urheberrechtsverletzungen führt.
- Die in der Ankündigung geteilten Beispiele zeigen ein ziemlich leistungsfähiges Modell, das in der Lage ist, den Kontext zu verstehen und kohärente Generationen bereitzustellen.
- IBM experimentiert mit Adobe Firefly, um die Arbeitsabläufe seiner Marketing- und Beratungsteams zu optimieren, und konzentriert sich dabei auf die Entwicklung zuverlässiger, KI-gestützter Kreativ- und Designergebnisse.
- Adobe hat außerdem sein bestehendes Firefly Image 3-Modell verbessert und behauptet, dass es jetzt viermal schneller Bilder generieren kann als frühere Versionen.
- Außerdem wurde bekannt, dass Canon, Nikon und Leica die Camera to Cloud (C2C)-Funktion unterstützen werden, die das direkte Hochladen von Fotos und Videos auf Frame.io ermöglicht.
Doch wie das Beispiel Lenovo zeigt, ist eine Menge sorgfältiger Vorarbeit erforderlich, um das Potenzial dieser neuen Technologie sicher zu nutzen. Wenn man sich die Menge an Inhalten ansieht, die wir für eine durchgängige Personalisierung benötigen, ist diese geradezu astronomisch. Um Ihnen ein Beispiel zu geben: Wir haben gerade eine Kampagne für vier Produkte über acht Marketingkanäle, vier Sprachen und drei Varianten gestartet. Durch diese Beschleunigung der Inhaltsbereitstellung können die Teams das Erlebnis in Echtzeit anpassen und optimieren, wenn sich Trends oder Anforderungen ändern.
Doch derzeit verlangsamen diese neuesten generativen KI-Tools, die in den letzten Monaten viele Arbeitsabläufe beschleunigt haben, diese aufgrund seltsamer, nicht übereinstimmender und manchmal verblüffender Ergebnisse. „Die generative Füllung war in der vorherigen Photoshop-Version nahezu perfekt, um diese Aufgabe zu erledigen. Seit ich auf die neueste Version (26.0.0) aktualisiert habe, erhalte ich völlig absurde Ergebnisse“, erklärt der Benutzer. Seit dem Update fügt die generative Füllung einer Person Objekte hinzu, darunter ein Kaninchen und Buchstaben im Gesicht einer Person. Illustrator und Photoshop haben GenAI-Tools erhalten, um das Benutzererlebnis zu verbessern und den Benutzern mehr Freiheit bei der Entfaltung ihrer Kreativität und Fähigkeiten zu geben. Unser Engagement, unseren Bewertungsansatz mit dem technologischen Fortschritt weiterzuentwickeln, hilft Adobe dabei, Innovation und ethische Verantwortung in Einklang zu bringen.
Wir sammeln Daten aus den besten verfügbaren Quellen, darunter Anbieter- und Händlerlisten sowie andere relevante und unabhängige Bewertungsseiten. Und wir studieren Kundenbewertungen, um herauszufinden, was den echten Menschen wichtig ist, die die von uns bewerteten Produkte und Dienstleistungen bereits besitzen und nutzen. GhostGPT kann auch zum Codieren verwendet werden. Im Blogbeitrag wird auf Marketing im Zusammenhang mit der Erstellung von Malware und der Entwicklung von Exploits hingewiesen. Malware-Autoren nutzen zunehmend die Unterstützung von KI bei der Codierung, und Tools wie GhostGPT, denen die typischen Schutzmaßnahmen anderer großer Sprachmodelle (LLMs) fehlen, können Kriminellen die Zeit sparen, die sie mit dem Jailbreaking gängiger Tools wie ChatGPT verbringen. Media Intelligence erkennt automatisch Clip-Inhalte, einschließlich Personen, Objekte, Standorte, Kamerawinkel, Kameratyp und mehr. Dadurch können Redakteure einfach den benötigten Cliptyp in das neue Suchfeld eingeben, das interaktive visuelle Ergebnisse, Transkripte und andere Metadatenergebnisse aus einem gesamten Projekt anzeigt.
Ein Adobe-Vertreter sagt, dass es heute In-App-Benachrichtigungen in Adobe Express gibt – einer App, in der Credits erzwungen werden. Sobald Adobe Generative Credits in Photoshop und Lightroom durchsetzt, können die Benutzer laut Angaben des Unternehmens unbedingt mit einer entsprechenden In-App-Benachrichtigung rechnen. Als Teil der unten stehenden Originalgeschichte hat PetaPixel auch eine Zeile hinzugefügt, in der es heißt, dass in Adobe Express In-App-Benachrichtigungen verwendet werden, um Benutzer über die Verwendung von Generative Credits zu informieren. Für das vierte Quartal prognostiziert Adobe einen Umsatz zwischen $5,5 und $5,55 Milliarden, was einem Wachstum zwischen 9% und 10% entspricht.
Darüber hinaus fügt Adobe dem Entfernen-Tool eine nette Funktion hinzu, mit der Sie Personen und Objekte ganz einfach aus einem Bild löschen können, ähnlich wie mit dem Magic Eraser von Google. Mit der Ablenkungsentfernung können Sie bestimmte allgemeine Elemente mit einem einzigen Klick entfernen. Beispielsweise können Sie damit unerwünschte Drähte und Kabel entfernen und Touristen aus Ihren Reisefotos entfernen. Adobe schließt sich mehreren anderen Akteuren im Bereich der generativen KI (GAI) an, indem es sein eigenes Modell einführt. Das Firefly-Videomodell ist die Grundlage für zahlreiche Funktionen in der breiten Palette der Apps des Unternehmens.
Es eignet sich hervorragend zum Entfernen von Kabeln und Leitungen, die von einer schönen Himmelslandschaft ablenken. Dies beginnt eigentlich mit der Definition unserer Marken- und Kanalrichtlinien sowie Personas, um Inhalte zu generieren, die zur Marke passen und die Personalisierung in unseren vielen Segmenten unterstützen. Die schnelle Einführung generativer KI hat zweifellos innerhalb und außerhalb der Kreativbranche Chaos verursacht. Adobe hat versucht, die Verwirrung und die Bedenken, die mit der KI der nächsten Generation einhergehen, etwas zu zerstreuen, ist aber eindeutig davon überzeugt, dass dies der Weg der Zukunft ist. Auch wenn die Entwickler von Adobe von bestimmten KI-Tools begeistert sind, haben sie dennoch ernsthafte Bedenken hinsichtlich der allgemeinen Auswirkungen der KI auf die Branche.
Eine Funktion generiert visuelle Assets, die denen ähneln, die ein Designer hervorgehoben hat. Die anderen können neue Objekte in ein Bild einbetten, den Hintergrund ändern und damit verbundene Aufgaben ausführen. Einige der Funktionen werden in den Videobearbeitungsanwendungen des Unternehmens eingeführt. Die anderen werden größtenteils in der Suite der Bildbearbeitungstools von Adobe verfügbar sein, einschließlich Photoshop. Für Fotografen, die generative KI in ihren Fotobearbeitungs-Workflows nicht ablehnen, sind Generative Remove und andere generative KI-Tools wie Generative Fill und Generative Expand unverzichtbar geworden.