paperswithcode简介
paperswithcode是一站式的门户网站,可访问包括机器学习模型、数据集、方法、评估表和代码在内的开源资源,了解当下最先进的研究论文,幸运的话会有相应的数据集和代码。
正如网站的域名所说,PaperswithCode是一个平台,包含大量作者或社区对研究论文的的代码实现。PaperswithCode在为机器学习研究领域越来越受欢迎。
您可以通过使用平台上面的代码重现论文的结果,使用模型性能指标检查所有先前的实现,查看研究论文中使用的数据集、模型和方法。它是下一代知识共享平台,由社区驱动,并在CC-BY-SA许可下对维基百科等开放。
除了机器学习之外,该平台还拥有专门的门户网站,用于收录天文学、物理学、计算机科学、数学和统计学领域的代码论文。还可以查看论文趋势、框架和代码覆盖率的所有统计数据。
在网站上,任何人都可以通过单击编辑按钮进行贡献。如果您想向论文、评估表、任务或数据集添加代码,请在特定页面上找到编辑按钮进行修改。用户界面非常友好,因此查找论文或添加资源非常容易。所有提交的代码和结果都在免费的CCBY-SA许可下。
最先进的
StateoftheArt部分包含个基准机器学习模型、个任务和子任务(KnowledgeDistillation、Few-ShotImageClassification)、65,篇带代码的论文。这些机器学习模型按计算机视觉、自然语言处理和时间序列等各个研究领域进行细分。
选择研究领域后,就可以探索各子领域和结果。例如,使用CoAtNet-7模型的计算机视觉图像分类具有90.88%的最佳准确率。可以查看代码实现、阅读论文、查看神经网络中使用的参数,并以对类似数据集进行详细比较的形式查看结果。
数据集
数据集部分包含5,个机器学习数据集,您可以直接搜索数据集,也可以根据模式、任务和语言过滤它们。不仅可以访问数据集,还可以获得基于基准结果和研究论文的特定类别中流行数据集的完整统计信息。
每个数据集都包含指向原始数据集所在的论文或网站的链接。数据页面易于浏览,几分钟内您就可以了解模式、许可证信息、发表的论文和基于子类别的基准。例如,ImageNet上自我监督图像分类的基准是iBOT,准确率为82.3%。
要与ML社区共享您的数据集,您需要填写表格添加数据集并提供有关数据集的链接和详细信息。
方法
该平台结构和组织良好,因为它将各个部分划分为更小的子部分。最先进的模型由机器学习的各个领域(计算机视觉、语音)组织,每个研究领域都由任务(对象检测、图像生成)和子任务(无监督图像分类、Fine-粒度图像分类)。最后,这些子任务是使用各种方法(随机优化、卷积神经网络)构建的。
Method部分按类型划分,每种类型由各种方法组成。例如,General类型由Attention和ActivationFunctions组成。每种方法都有某种变体,这些变体已用于创建模型或用于处理数据。如果你想改进当前的机器学习系统,那么“方法”部分是寻找解决方案的最佳场所。
例子
试着看看我们在CoAtNet页面上获得了哪些信息。该页面包含完整的研究论文名称和作者姓名以及社交媒体链接。您可以阅读摘要,甚至可以从arxiv或一般出版物下载论文全文。如果喜欢这篇研究论文并想了解代码实现和结果,请开始向下滚动页面以发现多个GitHub存储库链接、任务、数据集、结果和方法。该平台通过连接机器学习生态系统的各种组件来增强研究人员的体验。
结论
PaperswithCode具有多种功能,可让机器学习从业者和研究人员学习并为尖端技术做出贡献。该平台还提供了HuggingFaceSpaceswithGitHub存储库的链接,以便您体验模型的工作原理。除此之外,您还可以在PaperswithCode上反映竞赛的结果。例如,可以将结果添加到HuggingFace模型中,它将显示在带有数据集、模型和模型指标的PaperswithCode上。