谷歌的 Vision Transformer (ViT) 模型最早是由Google AI在2021年发布的一篇名为《ImageNet Classification with Vision Transformers》的研究论文中提出的。这个模型将Transformer架构应用于计算机视觉任务,并在图像分类方面取得了显著的成绩。
如果你想查看ViT模型的原始
GitHub代码库,它通常不会直接托管在Google的官方
GitHub上,因为这些大型模型的代码往往会在它们的官方网站或者研究团队的
GitHub组织页面上发布。最准确的
信息应该是来自该模型的开发者,通常是DeepMind或者相关的研究者。
你可以访问以下链接以查找Vision Transformer的相关资源:
1. DeepMind官方
GitHub: https://
github.com/deepmind/vision_transformer/
2. Google AI
GitHub: https://
github.com/google-research/vision_transformers
请注意,由于版权和更新的原因,实际的
GitHub 地址可能会有所变化,建议直接搜索上述关键词来找到最新的版本和文档。
到此这篇github 国内访问(github国内访问网址)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/bcyy/20365.html