AI绘图写文字,就用ModelScope + AnyText

这是我日更的第22篇文章。⛳

今天收到推送的一篇文章,是关于阿里达摩院突破 “AI绘图模型不会写字” 这个难题。我之前就有这个需求,想清晰地在图片上写字。之前MJ、SD这方面都不行,只有openai 的DALL·E 3勉强好一点点,但是汉字没试过不知道行不行。

听到这个消息,那肯定迫不及待的动手试试了,效果果然符合预期。

之前要跑个模型,一般会去google的Colab,简单介绍下它:

Colaboratory(简称 Colab),您可在浏览器中编写和执行 Python 代码,并且:

  • 无需任何配置
  • 免费使用 GPU
  • 轻松共享
  • 托管式 Jupyter 笔记本服务

文中用的是ModelScope, 它和Colab定位不同,ModelScode可以创建自己的空间,模板比较多,Gradio、Streamlit、Static都可以,和Huggingface功能有点类似,Huggingface多了一个Docker的SDK类型,都是开源的模型即服务共享平台,汇聚了各领域的先进机器学习模型,提供模型探索、推理、训练、部署和应用的一站式服务。

总结一下,ModelScope = Colab + Huggingface;

免费配置对比如下:

Colab:内存12G、磁盘100G,提供CPU、T4GPU;睡眠时间:不确定,免费的最长12小时,收费的24小时,如果一直用,可以通过 GCP Marketplace 购买有保证的资源。

ModelScode:CPU模式8核 32GB(长期) ,GPU模式8核 32GB 显存24G(最多提供36小时);睡眠时间:1小时

Huggingface:CPU模式2核 16GB ;睡眠时间:48小时

如果想不翻墙,用ModelScope还是不错的,开通一个阿里云账号,直接上8核,爽歪歪。

说这么多,赶紧体验了下AnyText这个模型到底是不是官方宣传的那么牛逼。

我是直接打开魔搭社区AnyText模型的主页,刚好有个Demo站点,直接用就行了。大家看看效果,排队的人很少,1分钟就出图了。

验证的提示词很简单,就是 棒球服上写着”中国胜利”

图片

想着字体尽量大点,所以分两行写。

图片

最后的效果(第三张打90分):

图片
图片
图片
图片

想要自己动手的还等什么,现在就搞起来。
GitHub:github.com/tyxsspa/AnyText魔搭社区:modelscope.cn/models/damo/cv_anytext_text_generation_editing/summary笔记:colab.research.google.com/github/camenduru/AnyText-colab/blob/main/AnyText_colab.ipynb

声明:文中观点不代表本站立场。本文传送门:https://eyangzhen.com/389190.html

(0)
联系我们
联系我们
分享本页
返回顶部