Adobe zögert nicht, während des Aufstiegs der künstlichen Intelligenz und der Generierung visueller Inhalte etwas mit sich selbst zu tun, das Unternehmen kündigte sein KI-Tool namens Firefly an, mit dem Benutzer einige Bilddetails mithilfe von Textbefehlen ändern können. Zunächst können nur die Teilnehmer des privaten Beta-Tests die Fähigkeiten der Technologie testen, über eine breitere Verfügbarkeit machte das Unternehmen noch keine Angaben, lediglich dass es die Entwicklung künftig in alle seine Produkte integrieren wolle.
Die erste Version von Firefly konzentriert sich auf das Ändern von Bildern und Texteffekten, diese Fähigkeiten wurden durch die Demo von Adobe hervorgehoben, in der die KI einen Leuchtturm aus der ursprünglichen Komposition extrahierte und verschiedene Versionen davon generierte. In einem anderen Beispiel war zu sehen, wie eine Sommerszene in ein Bild umgewandelt wurde, das eine Winterumgebung darstellt, nachdem der Benutzer einen Befehl eingegeben hatte, um die Szene zu ändern, aber keine Bearbeitungsarbeiten durchgeführt hat, das Programm hat die angeforderte Version selbst erstellt .
Wie kann KI die Entwicklungsarbeit revolutionieren?Oder wird es vor dem Selbstfahren ein Autocoding geben? Die HWSW IT Karriere-fokussierte Kraftie geht weiter! eine Folge von Ereignissen. |
Wie kann KI die Entwicklungsarbeit revolutionieren? Oder wird es vor dem Selbstfahren ein Autocoding geben? Die HWSW IT Karriere-fokussierte Kraftie geht weiter! eine Folge von Ereignissen.
Bei der Ankündigung der Übernahme von Figma im vergangenen Jahr sprach das Unternehmen auch davon, die Funktionen anderer Produkte in Figma zu integrieren. Somit hat es mit einer stärkeren Expansion in Richtung KI neue Möglichkeiten, seine Position auf dem Markt für Grafik- und Kollaborationssoftware zu stärken, wo auch der Wettbewerb zunimmt, OpenAI und Stable Diffusion bieten beide generative KI-Produkte an.
Während im Fall von ChatGPT und typischerweise textgenerierenden Diensten das hauptsächliche ethische Problem das Phänomen der Halluzination und Desinformation ist, dreht sich im Bereich der bildgebenden Technologien wie DALL-E oder Stable Diffusion der lebhafteste Diskurs um das Training der Modelle mit die Werke lebender Künstler. , sodass Entwickler anderes geistiges Eigentum verwenden können, um neue Inhalte zu generieren. Adobe betonte, dass Entwicklern während der breiteren Markteinführung Gelegenheiten offen stehen werden, von ihrer Kreativität zu profitieren. Da das Modell mit Bildern trainiert wird, die in Adobe Stock verfügbar sind, muss sich das Unternehmen in dieser Hinsicht nicht allzu viele Gedanken über das Urheberrecht machen, da die Künstler, die Stock verwenden, ohnehin bereits eine Geschäftsbeziehung mit dem Unternehmen haben.
Source: HWSW Informatikai Hírmagazin by www.hwsw.hu.
*The article has been translated based on the content of HWSW Informatikai Hírmagazin by www.hwsw.hu. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!
*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.
*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!