stars | repo | colab | HF | description | summary |
---|---|---|---|---|---|
111246 | pytorch-transformers | 🤗 | 🤗 Transformers: State-of-the-art Machine Learning | summary | |
87864 | awesome-chatgpt-prompts | 🤗 | This repo includes ChatGPT prompt curation to use | summary | |
60853 | langchain | 🤗 | ⚡ Building applications with LLMs through composab | summary | |
59644 | stable-diffusion | 🤗 | A latent text-to-image diffusion model | summary | |
56263 | funNLP | 🤗 | 中英文敏感词、语言检测、中外手机/电话归属地/运营商查询、名字推断性别、手机号抽取、身份证抽取、邮箱 | summary | |
55749 | awesome-public-datasets | 🤗 | A topic-centric list of HQ open datasets. | summary | |
44082 | whisper | Robust Speech Recognition via Large-Scale Weak Sup | summary | ||
41279 | yolov5 | YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite | summary | ||
40833 | llama | 🤗 | Inference code for LLaMA models | summary | |
40541 | chatgpt_academic | 🤗 | 为ChatGPT/GLM提供图形交互界面,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快 | summary | |
39951 | llama.cpp | 🤗 | Port of Facebook's LLaMA model in C/C++ | summary | |
39448 | pythondatasciencehandbook | Python Data Science Handbook: full text in Jupyter | summary | ||
35173 | bert | TensorFlow code and pre-trained models for BERT | summary | ||
33996 | visual-chatgpt | 🤗 | summary | ||
33858 | chatglm-6b | 🤗 | ChatGLM-6B: An Open Bilingual Dialogue Language Mo | summary | |
32738 | DragGAN | 🤗 | Official Code for DragGAN (SIGGRAPH 2023) | summary | |
31976 | colossalai | 🤗 | Making large AI models cheaper, faster and more ac | summary | |
31975 | GFPGAN | 🤗 | GFPGAN aims at developing Practical Algorithms for | summary | |
30675 | google-research | 🤗 | Google Research | summary | |
29478 | stablediffusion | 🤗 | High-Resolution Image Synthesis with Latent Diffus | summary | |
28133 | DeepSpeed | 🤗 | DeepSpeed is a deep learning optimization library | summary | |
27344 | fairseq | 🤗 | Facebook AI Research Sequence-to-Sequence Toolkit | summary | |
27340 | fairseq | 🤗 | Facebook AI Research Sequence-to-Sequence Toolkit | summary | |
26977 | fastchat | 🤗 | An open platform for training, serving, and evalua | summary | |
26602 | pytorch-image-models | 🤗 | PyTorch image models, scripts, pretrained weights | summary | |
26597 | stanford_alpaca | 🤗 | Code and documentation to train Stanford's Alpaca | summary | |
26080 | bark | 🤗 | 🔊 Text-Prompted Generative Audio Model | summary | |
24502 | jax | Composable transformations of Python+NumPy program | summary | ||
24352 | nanogpt | 🤗 | The simplest, fastest repository for training/fine | summary | |
23897 | Netron | 🤗 | Visualizer for neural network, deep learning, and | summary | |
23360 | spleeter | Deezer source separation library including pretrai | summary | ||
23146 | controlnet | 🤗 | Let us control diffusion models! | summary | |
22846 | text-generation-webui | 🤗 | A Gradio web UI for Large Language Models. Support | summary | |
22659 | whisper.cpp | 🤗 | Port of OpenAI's Whisper model in C/C++ | summary | |
22622 | Real-ESRGAN | 🤗 | Real-ESRGAN aims at developing Practical Algorithm | summary | |
22303 | minigpt-4 | 🤗 | MiniGPT-4: Enhancing Vision-language Understanding | summary | |
21732 | JARVIS | 🤗 | JARVIS, a system to connect LLMs with ML community | summary | |
21541 | gradio-UI | 🤗 | Build and share delightful machine learning apps, | summary | |
20786 | examples | 🤗 | A set of examples around pytorch in Vision, Text, | summary | |
20522 | pytorch-CycleGAN-and-pix2 | Image-to-Image Translation in PyTorch | summary | ||
18734 | so-vits-svc | 🤗 | SoftVC VITS Singing Voice Conversion | summary | |
18644 | magenta | Magenta: Music and Art Generation with Machine Int | summary | ||
17618 | diffusers | 🤗 | 🤗 Diffusers: State-of-the-art diffusion models for | summary | |
17452 | CLIP | 🤗 | CLIP (Contrastive Language-Image Pretraining), Pr | summary | |
17130 | deep-learning-with-python | Jupyter notebooks for the code samples of the book | summary | ||
17056 | datasets | 🤗 | 🤗 The largest hub of ready-to-use datasets for ML | summary | |
16923 | DeOldify | 🤗 | A Deep Learning based project for colorizing and r | summary | |
16911 | alpaca-lora | 🤗 | Instruct-tune LLaMA on consumer hardware | summary | |
15897 | avatarify | Avatars for Zoom, Skype and other video-conferenci | summary | ||
15817 | audiocraft | 🤗 | Audiocraft is a library for audio processing and g | summary | |
15693 | localgpt | 🤗 | Chat with your documents on your local device usin | summary | |
15408 | stablelm | 🤗 | StableLM: Stability AI Language Models | summary | |
15244 | unilm | 🤗 | Large-scale Self-supervised Pre-training Across Ta | summary | |
15158 | flowise | 🤗 | Drag & drop UI to build your customized LLM flow | summary | |
15156 | awesome-nlp | 🤗 | 📖 A curated list of resources dedicated to Na | summary | |
15115 | langchain-chatglm | 🤗 | Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain | summary | |
14651 | chatpaper | 🤗 | Use ChatGPT to summarize the arXiv papers. 全流程加速科研 | summary | |
14388 | Awesome-pytorch-list | 🤗 | A comprehensive list of pytorch related content on | summary | |
14351 | chinese-llama-alpaca | 🤗 | 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & | summary | |
14317 | dalle-mini | 🤗 | DALL·E Mini - Generate images from a text prompt | summary | |
14260 | awesome-production-machin | 🤗 | A curated list of awesome open source libraries to | summary | |
14023 | tensor2tensor | Library of deep learning models and datasets desig | summary | ||
13758 | first-order-model | 🤗 | This repository contains the source code for the p | summary | |
13063 | fauxpilot | 🤗 | FauxPilot - an open-source alternative to GitHub C | summary | |
13054 | flair | 🤗 | A very simple framework for state-of-the-art Natur | summary | |
13052 | lama-cleaner | 🤗 | Image inpainting tool powered by SOTA AI Model. Re | summary | |
12941 | nlp-tutorial | Natural Language Processing Tutorial for Deep Lear | summary | ||
12427 | sd-webui-controlnet | 🤗 | WebUI extension for ControlNet | summary | |
12308 | ultralytics | NEW - YOLOv8 🚀 in PyTorch > ONNX > OpenVINO > Core | summary | ||
12112 | PaddleHub | 🤗 | Awesome pre-trained models toolkit based on Paddle | summary | |
11816 | bert-as-service | 🏄 Embed/reason/rank images and sentences with CLIP | summary | ||
11641 | comfyui | A powerful and modular stable diffusion GUI with a | summary | ||
11616 | awesome-static-analysis | 🤗 | ⚙️ A curated list of static analysis (SAST) tools | summary | |
11610 | detr | End-to-End Object Detection with Transformers | summary | ||
11432 | moss | 🤗 | An open-source tool-augmented conversational langu | summary | |
11215 | rembg | 🤗 | Rembg is a tool to remove images background | summary | |
11103 | yolov7 | 🤗 | Implementation of paper - YOLOv7: Trainable bag-of | summary | |
11073 | pandas-profiling | 1 Line of code data quality profiling & explorator | summary | ||
11027 | fashion-mnist | 🤗 | A MNIST-like fashion product database. Benchmark : | summary | |
10840 | retrieval-based-voice-con | 🤗 | Voice data <= 10 mins can also be used to train a | summary | |
10676 | alphafold | Open source code for AlphaFold. | summary | ||
10656 | Grounded-Segment-Anything | 🤗 | Grounded-SAM: Marrying Grounding DINO with Segment | summary | |
10558 | dolly | 🤗 | Databricks’ Dolly, a large language model trained | summary | |
10553 | haystack | 🤗 | 🔍 LLM orchestration framework to build customi | summary | |
10066 | PaddleNLP | 🤗 | 👑 Easy-to-use and powerful NLP and LLM library wit | summary | |
10059 | prettymaps | A small set of Python functions to draw pretty map | summary | ||
10050 | DALLE2-pytorch | 🤗 | Implementation of DALL-E 2, OpenAI's updated text- | summary | |
9841 | codeformer | 🤗 | [NeurIPS 2022] Towards Robust Blind Face Restorati | summary | |
9670 | RWKV-LM | 🤗 | RWKV is an RNN with transformer-level LLM performa | summary | |
9605 | sonnet | TensorFlow-based neural network library | summary | ||
9365 | peft | 🤗 | 🤗 PEFT: State-of-the-art Parameter-Efficient Fine- | summary | |
9223 | TensorFlow-Tutorials | TensorFlow Tutorials with YouTube Videos | summary | ||
9149 | CoreNLP | 🤗 | CoreNLP: A Java suite of core NLP tools for tokeni | summary | |
9143 | audiogpt | 🤗 | AudioGPT: Understanding and Generating Speech, Mus | summary | |
8913 | tortoise-tts | 🤗 | A multi-voice TTS system trained with an emphasis | summary | |
8912 | generative-models | 🤗 | Generative Models by Stability AI | summary | |
8869 | openchatkit | 🤗 | summary | ||
8695 | chatrwkv | 🤗 | ChatRWKV is like ChatGPT but powered by RWKV (100% | summary | |
8694 | Chinese-BERT-wwm | 🤗 | Pre-Training with Whole Word Masking for Chinese B | summary | |
8567 | optuna | A hyperparameter optimization framework | summary | ||
8556 | latent-diffusion | 🤗 | High-Resolution Image Synthesis with Latent Diffus | summary | |
8553 | kornia | 🤗 | Computer Vision and Robotics Library for AI | summary | |
8446 | altair | Declarative statistical visualization library for | summary | ||
8214 | fingpt | 🤗 | Data-Centric FinGPT. Open-source for open finance | summary | |
8208 | nerf | Code release for NeRF (Neural Radiance Fields) | summary | ||
8174 | Awesome-Diffusion-Models | 🤗 | A collection of resources and papers on Diffusion | summary | |
8060 | gorilla | 🤗 | Gorilla: An API store for LLMs | summary | |
7978 | GPTNeo | 🤗 | An implementation of model parallel GPT-2 and GPT- | summary | |
7851 | vision_transformer | summary | |||
7813 | segmentation_models.pytor | Segmentation models with pretrained backbones. PyT | summary | ||
7789 | NeMo | 🤗 | NeMo: a toolkit for conversational AI | summary | |
7700 | trax | Trax — Deep Learning with Clear Code and Speed | summary | ||
7533 | RobustVideoMatting | 🤗 | Robust Video Matting in PyTorch, TensorFlow, Tenso | summary | |
7520 | tokenizers | 🤗 | 💥 Fast State-of-the-Art Tokenizers optimized for R | summary | |
7405 | Awesome-Chinese-NLP | 🤗 | A curated list of resources for Chinese NLP 中文自然语言 | summary | |
7377 | qlora | 🤗 | QLoRA: Efficient Finetuning of Quantized LLMs | summary | |
7350 | disco-diffusion | summary | |||
7219 | h2ogpt | 🤗 | Private Q&A and summarization of documents+images | summary | |
7177 | lmflow | 🤗 | An Extensible Toolkit for Finetuning and Inference | summary | |
7176 | client | 🔥 A tool for visualizing and tracking your machine | summary | ||
7169 | facets | Visualizations for machine learning datasets | summary | ||
7142 | jukebox | Code for the paper "Jukebox: A Generative Model fo | summary | ||
7139 | GPT2-Chinese | 🤗 | Chinese version of GPT2 training code, using BERT | summary | |
7067 | if | 🤗 | summary | ||
7060 | glm-130b | 🤗 | GLM-130B: An Open Bilingual Pre-Trained Model (ICL | summary | |
6963 | Dreambooth-Stable-Diffusi | 🤗 | Implementation of Dreambooth (https://arxiv.org/ab | summary | |
6939 | espnet | 🤗 | End-to-End Speech Processing Toolkit | summary | |
6924 | petals | 🤗 | 🌸 Run LLMs at home, BitTorrent-style. Fine-tuning | summary | |
6831 | CodeGeeX | 🤗 | CodeGeeX: An Open Multilingual Code Generation Mod | summary | |
6822 | wizardlm | 🤗 | Family of instruction-following LLMs powered by Ev | summary | |
6791 | satellite-image-deep-lear | 🤗 | Techniques for deep learning with satellite & aeri | summary | |
6739 | awful-ai | 🤗 | 😈Awful AI is a curated list to track current scary | summary | |
6677 | stable-dreamfusion | 🤗 | Text-to-3D & Image-to-3D & Mesh Exportation with N | summary | |
6652 | belle | 🤗 | BELLE: Be Everyone's Large Language model Engine(开 | summary | |
6587 | open_llama | 🤗 | OpenLLaMA, a permissively licensed open source rep | summary | |
6528 | lavis | LAVIS - A One-stop Library for Language-Vision Int | summary | ||
6509 | speechbrain | 🤗 | A PyTorch-based Speech Toolkit | summary | |
6464 | GloVe | 🤗 | Software in C and data files for the popular GloVe | summary | |
6402 | nerfstudio | A collaboration friendly studio for NeRFs | summary | ||
6396 | sadtalker | 🤗 | [CVPR 2023] SadTalker:Learning Realistic 3D Motion | summary | |
6380 | stable-baselines3 | PyTorch version of Stable Baselines, reliable impl | summary | ||
6353 | mmsegmentation | OpenMMLab Semantic Segmentation Toolbox and Benchm | summary | ||
6326 | models | 🤗 | A collection of pre-trained, state-of-the-art mode | summary | |
6225 | starcoder | 🤗 | Home of StarCoder: fine-tuning & inference! | summary | |
6190 | Megatron-LM | 🤗 | Ongoing research training transformer models at sc | summary | |
6184 | metaseq | 🤗 | Repo for external large-scale work | summary | |
6104 | lama | 🤗 | 🦙 LaMa Image Inpainting, Resolution-robust Large | summary | |
6094 | swift | Swift for TensorFlow | summary | ||
6071 | mesh-transformer-jax | Model parallel transformers in JAX and Haiku | summary | ||
6064 | mujoco | Multi-Joint dynamics with Contact. A general purpo | summary | ||
6054 | open_clip | 🤗 | An open source implementation of CLIP. | summary | |
5980 | gpt-neox | 🤗 | An implementation of model parallel autoregressive | summary | |
5879 | mae | PyTorch implementation of MAE https//arxiv.org/abs | summary | ||
5818 | pdfgpt | 🤗 | PDF GPT allows you to chat with the contents of yo | summary | |
5619 | accelerate | 🤗 | 🚀 A simple way to train and use PyTorch models wit | summary | |
5535 | kohya_ss | summary | |||
5532 | Transformers-Tutorials | 🤗 | This repository contains demos I made with the Tra | summary | |
5511 | fastsam | 🤗 | Fast Segment Anything | summary | |
5457 | trl | 🤗 | Train transformer language models with reinforceme | summary | |
5445 | text-to-text-transfer-tra | 🤗 | Code for the paper "Exploring the Limits of Transf | summary | |
5396 | consistency_models | 🤗 | Official repo for consistency models. | summary | |
5335 | llmsurvey | 🤗 | The official GitHub page for the survey paper "A S | summary | |
5307 | xformers | Hackable and optimized Transformers building block | summary | ||
5292 | denoising-diffusion-pytor | 🤗 | Implementation of Denoising Diffusion Probabilisti | summary | |
5289 | track-anything | 🤗 | Track-Anything is a flexible and interactive tool | summary | |
5287 | DALLE-pytorch | 🤗 | Implementation / replication of DALL-E, OpenAI's T | summary | |
5280 | graph_nets | Build Graph Nets in Tensorflow | summary | ||
5172 | instruct-pix2pix | 🤗 | summary | ||
5159 | yolov6 | 🤗 | YOLOv6: a single-stage object detection framework | summary | |
5145 | ConvNeXt | 🤗 | Code release for ConvNeXt model | summary | |
5065 | baichuan-7b | 🤗 | A large-scale 7B pretraining language model develo | summary | |
4889 | whisperx | 🤗 | WhisperX: Automatic Speech Recognition with Word- | summary | |
4888 | LLaVA | 🤗 | Visual Instruction Tuning: Large Language-and-Visi | summary | |
4829 | chatlaw | 🤗 | 中文法律大模型 | summary | |
4799 | AugLy | A data augmentations library for audio, image, tex | summary | ||
4783 | seamless_communication | 🤗 | Foundational Models for State-of-the-Art Speech an | summary | |
4759 | text-generation-inference | 🤗 | Large Language Model Text Generation Inference | summary | |
4746 | pytorch-seq2seq | Tutorials on implementing a few sequence-to-sequen | summary | ||
4733 | llama-adapter | 🤗 | Fine-tuning LLaMA to follow Instructions within 1 | summary | |
4693 | semantic-segmentation-pyt | Pytorch implementation for Semantic Segmentation/S | summary | ||
4684 | clearml | ClearML - Auto-Magical CI/CD to streamline your ML | summary | ||
4681 | LaTeX-OCR | 🤗 | pix2tex: Using a ViT to convert images of equation | summary | |
4661 | flax | 🤗 | Flax is a neural network library for JAX that is d | summary | |
4616 | taming-transformers | Taming Transformers for High-Resolution Image Synt | summary | ||
4574 | composer | Train neural networks up to 7x faster | summary | ||
4570 | lucid | A collection of infrastructure and tools for resea | summary | ||
4546 | awesome-domain-adaptation | 🤗 | A collection of AWESOME things about domian adapta | summary | |
4526 | ltp | 🤗 | Language Technology Platform | summary | |
4515 | facechain | 🤗 | FaceChain is a deep-learning toolchain for generat | summary | |
4511 | faster-whisper | 🤗 | Faster Whisper transcription with CTranslate2 | summary | |
4502 | pycorrector | 🤗 | pycorrector is a toolkit for text error correction | summary | |
4417 | pedalboard | 🤗 | 🎛 🔊 A Python library for working with audio. | summary | |
4395 | FasterTransformer | 🤗 | Transformer related optimization, including BERT, | summary | |
4332 | ethereum-org-website | 🤗 | Ethereum.org is a primary online resource for the | summary | |
4330 | ignite | High-level library to help with training and evalu | summary | ||
4298 | CodeGen | 🤗 | CodeGen is a family of open-source model for progr | summary | |
4289 | donut | 🤗 | Official Implementation of OCR-free Document Under | summary | |
4259 | tensorflow-deep-learning | 🤗 | All course materials for the Zero to Mastery Deep | summary | |
4259 | animegan2-pytorch | 🤗 | PyTorch implementation of AnimeGANv2 | summary | |
4200 | moco | PyTorch implementation of MoCo: https://arxiv.org/ | summary | ||
4181 | annotated-transformer | An annotated implementation of the Transformer pap | summary | ||
4125 | fiftyone | The open-source tool for building high-quality dat | summary | ||
4108 | awesome-totally-open-chat | 🤗 | A list of totally open alternatives to ChatGPT | summary | |
4100 | mineflayer | Create Minecraft bots with a powerful, stable, and | summary | ||
4093 | deep-high-resolution-net. | 🤗 | The project is an official implementation of our C | summary | |
4041 | biogpt | 🤗 | summary | ||
4033 | inpaint-anything | 🤗 | Inpaint anything using Segment Anything and inpain | summary | |
4007 | pytorch-sentiment-analysi | Tutorials on getting started with PyTorch and Torc | summary | ||
4002 | tf-quant-finance | High-performance TensorFlow library for quantitati | summary | ||
3993 | datasets | TFDS is a collection of datasets ready to use with | summary | ||
3978 | chinese-vicuna | 🤗 | Chinese-Vicuna: A Chinese Instruction-following LL | summary | |
3966 | silero-models | Silero Models: pre-trained speech-to-text, text-to | summary | ||
3962 | awesome-multimodal-large- | 🤗 | ✨✨Latest Papers and Datasets on | summary | |
3890 | stable-baselines | A fork of OpenAI Baselines, implementations of rei | summary | ||
3879 | DeepLabCut | Official implementation of DeepLabCut: Markerless | summary | ||
3852 | albert_zh | 🤗 | A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUA | summary | |
3841 | trlx | 🤗 | A repo for distributed training of language models | summary | |
3840 | tsai | Time series Timeseries Deep Learning Machine Learn | summary | ||
3794 | simpletransformers | 🤗 | Transformers for Classification, NER, QA, Language | summary | |
3759 | open_spiel | OpenSpiel is a collection of environments and algo | summary | ||
3753 | bitsandbytes | 🤗 | 8-bit CUDA functions for PyTorch | summary | |
3724 | Qwen-7B | 🤗 | The official repo of Qwen-7B (通义千问-7B) chat & pret | summary | |
3702 | codef | Official PyTorch implementation of CoDeF: Content | summary | ||
3659 | StyleCLIP | Official Implementation for "StyleCLIP: Text-Drive | summary | ||
3656 | courses | 🤗 | This repository is a curated collection of links t | summary | |
3651 | SimSwap | An arbitrary face-swapping framework on images and | summary | ||
3626 | yalm-100b | 🤗 | Pretrained language model with 100B parameters | summary | |
3621 | DiffSinger | 🤗 | DiffSinger: Singing Voice Synthesis via Shallow Di | summary | |
3615 | huatuo-llama-med-chinese | 🤗 | Repo for BenTsao [original name: HuaTuo (华驼)], Ins | summary | |
3599 | ByteTrack | 🤗 | [ECCV 2022] ByteTrack: Multi-Object Tracking by As | summary | |
3598 | Tune-A-Video | 🤗 | [ICCV 2023] Tune-A-Video: One-Shot Tuning of Image | summary | |
3560 | llama-efficient-tuning | 🤗 | Easy-to-use LLM fine-tuning framework (LLaMA-2, BL | summary | |
3560 | muzic | 🤗 | Muzic: Music Understanding and Generation with Art | summary | |
3544 | pyannote-audio | 🤗 | Neural building blocks for speaker diarization: sp | summary | |
3523 | RIFE | ECCV2022 - Real-Time Intermediate Flow Estimation | summary | ||
3510 | flagai | 🤗 | FlagAI (Fast LArge-scale General AI models) is a f | summary | |
3509 | stable-diffusion-videos | Create 🔥 videos with Stable Diffusion by exploring | summary | ||
3494 | mm-cot | 🤗 | Official implementation for "Multimodal Chain-of-T | summary | |
3486 | swinir | 🤗 | SwinIR: Image Restoration Using Swin Transformer ( | summary | |
3469 | thinkdsp | Think DSP: Digital Signal Processing in Python, by | summary | ||
3469 | ArtLine | A Deep Learning based project for creating line ar | summary | ||
3461 | min-dalle | 🤗 | min(DALL·E) is a fast, minimal port of DALL·E Mini | summary | |
3439 | redpajama-data | 🤗 | The RedPajama-Data repository contains code for pr | summary | |
3423 | DouZero | [ICML 2021] DouZero: Mastering DouDizhu with Self- | summary | ||
3422 | chat-ui | 🤗 | Open source codebase powering the HuggingChat app | ||
3405 | spark-nlp | State of the Art Natural Language Processing | summary | ||
3402 | nlp_paper_study | 🤗 | 该仓库主要记录 NLP 算法工程师相关的顶会论文研读笔记 | summary | |
3390 | hub | A library for transfer learning by reusing parts o | summary | ||
3387 | video-subtitle-extractor | 视频硬字幕提取,生成srt文件。无需申请第三方API,本地实现文本识别。基于深度学习的视频字幕提取框 | summary | ||
3383 | x-transformers | 🤗 | A simple but complete full-attention transformer w | summary | |
3351 | luotuo-chinese-llm | 🤗 | 骆驼(Luotuo): Open Sourced Chinese Language Models. | summary | |
3342 | GPT-4-LLM | 🤗 | Instruction Tuning with GPT-4 | summary | |
3339 | fengshenbang-lm | 🤗 | Fengshenbang-LM(封神榜大模型)是IDEA研究院认知计算与自然语言研究中心主导的大模型 | summary | |
3308 | MODNet | A Trimap-Free Portrait Matting Solution in Real Ti | summary | ||
3302 | visualglm-6b | 🤗 | Chinese and English multimodal conversational lang | summary | |
3301 | blip | 🤗 | PyTorch code for BLIP: Bootstrapping Language-Imag | summary | |
3282 | vtoonify | 🤗 | [SIGGRAPH Asia 2022] VToonify: Controllable High-R | summary | |
3280 | glide-text2im | GLIDE: a diffusion-based text-conditional image sy | summary | ||
3277 | faceswap-GAN | A denoising autoencoder + adversarial losses and a | summary | ||
3275 | whisper-jax | 🤗 | JAX implementation of OpenAI's Whisper model for u | summary | |
3272 | dm_control | DeepMind's software stack for physics-based simula | summary | ||
3269 | text2video-zero | 🤗 | [ICCV 2023 Oral] Text-to-Image Diffusion Models ar | summary | |
3260 | PyTorch-StudioGAN | 🤗 | StudioGAN is a Pytorch library providing implement | summary | |
3259 | bert-chinese-text-classif | 🤗 | 使用Bert,ERNIE,进行中文文本分类 | summary | |
3250 | mobilesam | 🤗 | This is the official code for MobileSAM project th | summary | |
3239 | wenet | 🤗 | Production First and Production Ready End-to-End S | summary | |
3236 | sumy | 🤗 | Module for automatic summarization of text documen | summary | |
3220 | segment-everything-everyw | 🤗 | Official implementation of the paper "Segment Ever | summary | |
3214 | cleanrl | 🤗 | High-quality single file implementation of Deep Re | summary | |
3188 | lit | The Learning Interpretability Tool: Interactively | summary | ||
3185 | acme | A library of reinforcement learning components and | summary | ||
3168 | catalyst | Accelerated deep learning R&D | summary | ||
3166 | gpt-code-clippy | 🤗 | Full description can be found here: https://discus | summary | |
3150 | football | Check out the new game server: | summary | ||
3122 | AIDungeon | Infinite adventures await! | |||
3106 | vissl | VISSL is FAIR's library of extensible, modular and | summary | ||
3094 | chinese-llama-alpaca-2 | 🤗 | 中文LLaMA-2 & Alpaca-2大模型二期项目 + 16K超长上下文模型 (Chinese | summary | |
3083 | mmtracking | OpenMMLab Video Perception Toolbox. It supports Vi | summary | ||
3080 | chatdoctor | 🤗 | summary | ||
3076 | toolbench | 🤗 | An open platform for training, serving, and evalua | summary | |
3075 | codegeex2 | 🤗 | CodeGeeX2: A More Powerful Multilingual Code Gener | summary | |
3047 | animatediff | 🤗 | Official implementation of AnimateDiff. | summary | |
3017 | baize | 🤗 | Let ChatGPT teach your own chatbot in hours with a | summary | |
3002 | llm-as-chatbot | 🤗 | LLM as a Chatbot Service | summary | |
2999 | pixel2style2pixel | Official Implementation for "Encoding in Style: a | summary | ||
2993 | sahi | 🤗 | Framework agnostic sliced/tiled inference + intera | summary | |
2989 | paper-qa | 🤗 | LLM Chain for answering questions from documents w | summary | |
2988 | flower | 🤗 | Flower: A Friendly Federated Learning Framework | summary | |
2986 | llm-foundry | 🤗 | LLM training code for MosaicML foundation models | summary | |
2979 | groundingdino | 🤗 | Official implementation of the paper "Grounding DI | summary | |
2932 | jsonformer | A Bulletproof Way to Generate Structured JSON from | summary | ||
2919 | text2vec | 🤗 | text2vec, text to vector. 文本向量表征工具,把文本转化为向量矩阵,实现了W | summary | |
2899 | best_AI_papers_2021 | A curated list of the latest breakthroughs in AI | summary | ||
2892 | camel | 🤗 | 🐫 CAMEL: Communicative Agents for “Mind” Explorati | summary | |
2852 | internchat | 🤗 | InternGPT (iGPT) is an open source demo platform w | summary | |
2847 | Pretrained-Language-Model | 🤗 | Pretrained language model and its related optimiza | summary | |
2822 | open_flamingo | 🤗 | An open-source framework for training large multim | summary | |
2780 | DI-engine | 🤗 | OpenDILab Decision AI Engine | summary | |
2776 | outlines | 🤗 | Generative Model Programming | summary | |
2767 | encodec | 🤗 | State-of-the-art deep learning based audio codec s | summary | |
2752 | pytorchviz | A small package to create visualizations of PyTorc | summary | ||
2751 | koboldai-client | 🤗 | summary | ||
2747 | lingvo | Lingvo | summary | ||
2744 | thinc | 🔮 A refreshing functional take on deep learning, c | summary | ||
2740 | neuralcoref | 🤗 | ✨Fast Coreference Resolution in spaCy with Neural | summary | |
2729 | graphics | TensorFlow Graphics: Differentiable Graphics Layer | summary | ||
2690 | chinese-chatllama | 🤗 | Chinese-LLaMA 1&2、Chinese-Falcon 基础模型;ChatFlow中文对话 | summary | |
2661 | ranking | Learning to Rank in TensorFlow | summary | ||
2661 | gaussian-splatting | 🤗 | Original reference implementation of "3D Gaussian | summary | |
2639 | internlm | 🤗 | InternLM has open-sourced a 7 billion parameter ba | summary | |
2635 | threestudio | 🤗 | A unified framework for 3D content generation. | summary | |
2630 | dtreeviz | A python library for decision tree visualization a | summary | ||
2612 | llmzoo | 🤗 | ⚡LLM Zoo is a project that provides data, models, | summary | |
2604 | ddsp | DDSP: Differentiable Digital Signal Processing | summary | ||
2595 | GLM | 🤗 | GLM (General Language Model) | summary | |
2593 | dm-haiku | 🤗 | JAX-based neural network library | summary | |
2588 | lit-gpt | 🤗 | Hackable implementation of state-of-the-art open-s | summary | |
2571 | img2dataset | Easily turn large sets of image urls to an image d | summary | ||
2563 | editanything | 🤗 | Edit anything in images powered by segment-anythi | summary | |
2545 | bmtools | 🤗 | Tool Learning for Big Models, Open-Source Solution | summary | |
2540 | hiplot | HiPlot makes understanding high dimensional data e | summary | ||
2539 | foolbox | A Python toolbox to create adversarial examples th | summary | ||
2534 | sam-hq | 🤗 | Segment Anything in High Quality | summary | |
2530 | nougat | 🤗 | Implementation of Nougat Neural Optical Understand | summary | |
2525 | alphatensor | summary | |||
2499 | baichuan-13b | 🤗 | A 13B large language model developed by Baichuan I | summary | |
2499 | galai | 🤗 | Model API for GALACTICA | summary | |
2496 | yolov3-tf2 | YoloV3 Implemented in Tensorflow 2.0 | summary | ||
2464 | rubrix | 🤗 | ✨Argilla: the open-source data curation platform f | summary | |
2458 | scenic | Scenic: A Jax Library for Computer Vision Research | summary | ||
2456 | sd-webui-segment-anything | 🤗 | Segment Anything for Stable Diffusion WebUI | summary | |
2449 | AlphaTree-graphic-deep-ne | 🤗 | AI Roadmap:机器学习(Machine Learning)、深度学习(Deep Learni | summary | |
2423 | riffusion-app | 🤗 | Stable diffusion for real-time music generation (w | summary | |
2414 | keras-bert | Implementation of BERT that could load official pr | summary | ||
2389 | grobid | 🤗 | A machine learning software for extracting informa | summary | |
2379 | otter | 🤗 | 🦦 Otter, a multi-modal model based on OpenFlamingo | summary | |
2361 | Kandinsky-2 | 🤗 | Kandinsky 2 — multilingual text2image latent diffu | summary | |
2357 | KAIR | Image Restoration Toolbox (PyTorch). Training and | summary | ||
2346 | chinese-clip | 🤗 | Chinese version of CLIP which achieves Chinese cro | summary | |
2337 | timesketch | Collaborative forensic timeline analysis | summary | ||
2329 | cnocr | 🤗 | CnOCR: Awesome Chinese/English OCR toolkits based | summary | |
2322 | prompt-to-prompt | 🤗 | summary | ||
2304 | t2i-adapter | 🤗 | T2I-Adapter | summary | |
2290 | esm | 🤗 | Evolutionary Scale Modeling (esm): Pretrained lang | summary | |
2271 | DeepKE | 🤗 | An Open Toolkit for Knowledge Graph Extraction and | summary | |
2236 | DialoGPT | 🤗 | Large-scale pretraining for dialogue | summary | |
2233 | Neural-Style-Transfer | Keras Implementation of Neural Style Transfer from | summary | ||
2223 | BIG-bench | Beyond the Imitation Game collaborative benchmark | summary | ||
2223 | rebiber | 🤗 | A simple tool to update bib entries with their off | summary | |
2220 | deeppointcloud-benchmarks | Pytorch framework for doing deep learning on point | summary | ||
2206 | SARA_DDPG | ICCV2019 - Learning to Paint With Model-based Deep | summary | ||
2202 | wavenet_vocoder | WaveNet vocoder | summary | ||
2192 | awesome-implicit-represen | A curated list of resources on implicit neural rep | summary | ||
2190 | PyTorch-NLP | 🤗 | Basic Utilities for PyTorch Natural Language Proce | summary | |
2185 | BlenderProc | A procedural Blender pipeline for photorealistic t | summary | ||
2182 | codet5 | 🤗 | Home of CodeT5: Open Code LLMs for Code Understand | summary | |
2168 | segment-geospatial | A Python package for segmenting geospatial data wi | summary | ||
2155 | dsp | DSPy: The framework for programming with foundatio | summary | ||
2144 | painter | 🤗 | Painter & SegGPT Series: Vision Foundation Models | summary | |
2124 | ask-anything | 🤗 | [VideoChatGPT] ChatGPT with video understanding! A | summary | |
2082 | promptsource | 🤗 | Toolkit for creating, sharing and using natural la | summary | |
2082 | neural-tangents | Fast and Easy Infinite Neural Networks in Python | summary | ||
2078 | GPEN | 🤗 | summary | ||
2069 | ofa | 🤗 | Official repository of OFA (ICML 2022). Paper: OFA | summary | |
2068 | openfold | Trainable, memory-efficient, and GPU-friendly PyTo | summary | ||
2066 | rust-bert | 🤗 | Rust native ready-to-use NLP pipelines and transfo | summary | |
2064 | awesome-prompt-engineerin | 🤗 | This repository contains a hand-curated resources | summary | |
2058 | doctr | 🤗 | docTR (Document Text Recognition) - a seamless, hi | summary | |
2042 | alpaca-cot | 🤗 | We unified the interfaces of instruction-tuning da | summary | |
2018 | lightglue | LightGlue: Local Feature Matching at Light Speed ( | summary | ||
2004 | Face-Depixelizer | Face Depixelizer based on "PULSE: Self-Supervised | summary | ||
2000 | videocrafter | 🤗 | A Toolkit for Text-to-Video Generation and Editing | summary | |
1994 | BERT-related-papers | 🤗 | BERT-related papers | summary | |
1992 | AutoGPTQ | 🤗 | An easy-to-use LLMs quantization package with user | summary | |
1979 | clip-interrogator | 🤗 | Image to prompt with BLIP and CLIP | summary | |
1956 | SkyAR | Official Pytorch implementation of the preprint pa | summary | ||
1955 | ru-gpts | Russian GPT3 models. | summary | ||
1930 | easylm | 🤗 | Large language models (LLMs) made easy, EasyLM is | summary | |
1920 | norfair | 🤗 | Lightweight Python library for adding real-time mu | summary | |
1916 | llm-attacks | 🤗 | Universal and Transferable Attacks on Aligned Lang | summary | |
1904 | waifu-diffusion | 🤗 | stable diffusion finetuned on weeb stuff | summary | |
1903 | tabula-py | Simple wrapper of tabula-java: extract table from | summary | ||
1895 | deeplearning-biology | 🤗 | A list of deep learning implementations in biology | summary | |
1872 | deepvoice3_pytorch | PyTorch implementation of convolutional neural net | summary | ||
1872 | AudioLDM | 🤗 | AudioLDM: Generate speech, sound effects, music an | summary | |
1858 | simple-llama-finetuner | 🤗 | Simple UI for LLM Model Finetuning | summary | |
1844 | longformer | Longformer: The Long-Document Transformer | summary | ||
1840 | internimage | 🤗 | [CVPR 2023 Highlight] InternImage: Exploring Large | summary | |
1836 | adapter-transformers | 🤗 | Huggingface Transformers + Adapters = ❤️ | summary | |
1831 | chatyuan | 🤗 | ChatYuan: Large Language Model for Dialogue in Chi | summary | |
1817 | compare_gan | Compare GAN code. | summary | ||
1798 | silero-vad | Silero VAD: pre-trained enterprise-grade Voice Act | summary | ||
1787 | deforum-stable-diffusion | 🤗 | summary | ||
1777 | ecco | Explain, analyze, and visualize NLP language model | summary | ||
1765 | brax | Massively parallel rigidbody physics simulation on | summary | ||
1759 | ultrachat | 🤗 | Large-scale, Informative, and Diverse Multi-round | summary | |
1750 | segment-and-track-anythin | 🤗 | An open-source project dedicated to tracking and s | summary | |
1745 | ganspace | Discovering Interpretable GAN Controls [NeurIPS 20 | summary | ||
1741 | tigerbot | 🤗 | TigerBot: A multi-language multi-task LLM | summary | |
1714 | neuralforecast | Scalable and user friendly neural 🧠 forecast | summary | ||
1712 | zero123 | 🤗 | Zero-1-to-3: Zero-shot One Image to 3D Object (ICC | summary | |
1709 | once-for-all | [ICLR 2020] Once for All: Train One Network and Sp | summary | ||
1707 | orbit | A Python package for Bayesian forecasting with obj | summary | ||
1703 | TensorNetwork | A library for easy and efficient manipulation of t | summary | ||
1699 | gpt2-ml | GPT2 for Multiple Languages, including pretrained | summary | ||
1694 | biobert | 🤗 | Bioinformatics'2020: BioBERT: a pre-trained biomed | summary | |
1687 | bayesian-machine-learning | Notebooks about Bayesian methods for machine learn | summary | ||
1673 | transfer-learning-conv-ai | 🤗 | 🦄 State-of-the-Art Conversational AI with Transfer | summary | |
1666 | Recognize_Anything-Tag2Te | 🤗 | Code for the Recognize Anything Model (RAM) and Ta | summary | |
1652 | DeBERTa | 🤗 | The implementation of DeBERTa | summary | |
1648 | ru-dalle | 🤗 | Generate images from texts. In Russian | summary | |
1641 | hivemind | 🤗 | Decentralized deep learning in PyTorch. Built to t | summary | |
1614 | rainbow-is-all-you-need | Rainbow is all you need! A step-by-step tutorial f | summary | ||
1612 | semantic-segment-anything | 🤗 | Automated dense category annotation engine that se | summary | |
1611 | awesome-chatgpt | 🤗 | ⚡ Everything about ChatGPT | summary | |
1596 | CPM-Generate | 🤗 | Chinese Pre-Trained Language Models (CPM-LM) Versi | summary | |
1594 | openchat | 🤗 | OpenChat: Advancing Open-source Language Models wi | summary | |
1580 | clip-retrieval | Easily compute clip embeddings and build a clip re | summary | ||
1570 | CDial-GPT | 🤗 | A Large-scale Chinese Short-Text Conversation Dat | summary | |
1565 | setfit | 🤗 | Efficient few-shot learning with Sentence Transfor | summary | |
1552 | jiant | jiant is an nlp toolkit | summary | ||
1546 | custom-diffusion | 🤗 | Custom Diffusion: Multi-Concept Customization of T | summary | |
1529 | sd-akashic | 🤗 | A compendium of informations regarding Stable Diff | summary | |
1525 | sdpaint | 🤗 | Stable Diffusion Painting | summary | |
1521 | video-llama | 🤗 | Video-LLaMA: An Instruction-tuned Audio-Visual Lan | summary | |
1520 | torchrec | Pytorch domain library for recommendation systems | summary | ||
1520 | optimum | 🤗 | 🚀 Accelerate training and inference of 🤗 Transform | summary | |
1513 | evaluate | 🤗 | 🤗 Evaluate: A library for easily evaluating machin | summary | |
1505 | GLIP | 🤗 | Grounded Language-Image Pre-training | summary | |
1499 | torch-cam | 🤗 | Class activation maps for your PyTorch models (CAM | summary | |
1496 | DiT | 🤗 | Official PyTorch Implementation of "Scalable Diffu | summary | |
1489 | language | 🤗 | Shared repository for open-sourced projects from t | summary | |
1488 | pythia | 🤗 | summary | ||
1486 | DualStyleGAN | 🤗 | [CVPR 2022] Pastiche Master: Exemplar-Based High-R | summary | |
1463 | awesome-anything | 🤗 | General AI methods for Anything: AnyObject, AnyGen | summary | |
1460 | MedicalZooPytorch | A pytorch-based deep learning framework for multi- | summary | ||
1458 | rl-baselines3-zoo | 🤗 | A training framework for Stable Baselines3 reinfor | summary | |
1458 | 3d-ken-burns | an implementation of 3D Ken Burns Effect from a Si | summary | ||
1457 | benchmark_VAE | 🤗 | Unifying Variational Autoencoder (VAE) implementat | summary | |
1451 | transformers_tasks | 🤗 | ⭐️ NLP Algorithms with transformers lib. Supportin | summary | |
1449 | yake | Single-document unsupervised keyword extraction | summary | ||
1449 | big_transfer | Official repository for the "Big Transfer (BiT): G | summary | ||
1444 | pke | Python Keyphrase Extraction module | summary | ||
1444 | omnizart | Omniscient Mozart, being able to transcribe everyt | summary | ||
1442 | Transformer-Explainabilit | 🤗 | [CVPR 2021] Official PyTorch implementation for Tr | summary | |
1435 | icon | 🤗 | [CVPR'22] ICON: Implicit Clothed humans Obtained f | summary | |
1428 | pytorch_segmentation | 🎨 Semantic segmentation models, datasets and l | summary | ||
1416 | k-diffusion | 🤗 | Karras et al. (2022) diffusion models for PyTorch | summary | |
1410 | AudioLDM2 | 🤗 | Text-to-Audio/Music Generation | summary | |
1404 | medicalgpt | 🤗 | MedicalGPT: Training Your Own Medical GPT Model wi | summary | |
1401 | eva | 🤗 | EVA Series: Visual Representation Fantasies from B | summary | |
1395 | PySR | High-Performance Symbolic Regression in Python and | summary | ||
1395 | mplug-owl | 🤗 | mPLUG-Owl🦉: Modularization Empowers Large Language | summary | |
1393 | co-tracker | 🤗 | CoTracker is a model for tracking any point (pixel | summary | |
1392 | InterFaceGAN | [CVPR 2020] Interpreting the Latent Space of GANs | summary | ||
1391 | promptcraft-robotics | 🤗 | Community for applying LLMs to robotics and a robo | summary | |
1382 | caption-anything | 🤗 | Caption-Anything is a versatile tool combining ima | summary | |
1380 | gramformer | 🤗 | A framework for detecting, highlighting and correc | summary | |
1369 | entity-recognition-datase | 🤗 | A collection of corpora for named entity recogniti | summary | |
1369 | awesome-text-to-image | 🤗 | (ෆ`꒳´ෆ) A Survey on Text-to-Image Generation/Synth | summary | |
1367 | video-retalking | [SIGGRAPH Asia 2022] VideoReTalking: Audio-based L | summary | ||
1363 | JoJoGAN | 🤗 | Official PyTorch repo for JoJoGAN: One Shot Face S | summary | |
1363 | ParallelWaveGAN | Unofficial Parallel WaveGAN (+ MelGAN & Multi-band | summary | ||
1355 | neuraltalk2.pytorch | I decide to sync up this repo and self-critical.py | summary | ||
1350 | colabfold | Making Protein folding accessible to all! | summary | ||
1337 | deepfilternet | 🤗 | Noise supression using deep filtering | summary | |
1335 | Make-It-3D | 🤗 | [ICCV 2023] Make-It-3D: High-Fidelity 3D Creation | summary | |
1335 | i-Code | 🤗 | summary | ||
1333 | animeganv3 | 🤗 | Use AnimeGANv3 to make your own animation works, i | summary | |
1333 | BoostingMonocularDepth | summary | |||
1323 | codetf | 🤗 | CodeTF: One-stop Transformer Library for State-of- | summary | |
1311 | redner | Differentiable rendering without approximation. | summary | ||
1309 | autoformer | 🤗 | About Code release for "Autoformer: Decomposition | summary | |
1307 | state-spaces | 🤗 | Sequence Modeling with Structured State Spaces | summary | |
1305 | blog | 🤗 | Public repo for HF blog posts | summary | |
1292 | koalpaca | 🤗 | KoAlpaca: 한국어 명령어를 이해하는 오픈소스 언어모델 | summary | |
1288 | webglm | 🤗 | WebGLM: An Efficient Web-enhanced Question Answeri | summary | |
1281 | uncertainty-baselines | High-quality implementations of standard and SOTA | summary | ||
1277 | nerfies | This is the code for Deformable Neural Radiance Fi | summary | ||
1264 | stable-diffusion | 🤗 | summary | ||
1243 | ColBERT | ColBERT: state-of-the-art neural search (SIGIR'20, | summary | ||
1238 | DeepPrivacy | 🤗 | DeepPrivacy: A Generative Adversarial Network for | summary | |
1228 | Transformer-in-Vision | 🤗 | Recent Transformer-based CV and related works. | summary | |
1228 | alpacadatacleaned | 🤗 | Alpaca dataset from Stanford, cleaned and curated | summary | |
1219 | data-efficient-gans | [NeurIPS 2020] Differentiable Augmentation for Dat | summary | ||
1218 | CodeXGLUE | 🤗 | CodeXGLUE | summary | |
1208 | chemprop | Message Passing Neural Networks for Molecule Prope | summary | ||
1205 | versatile-diffusion | 🤗 | Versatile Diffusion: Text, Images and Variations A | summary | |
1195 | prismer | 🤗 | The implementation of "Prismer: A Vision-Language | summary | |
1188 | instructor-embedding | 🤗 | [ACL 2023] One Embedder, Any Task: Instruction-Fin | summary | |
1186 | multimodal-gpt | 🤗 | Multimodal-GPT | summary | |
1181 | one-pixel-attack-keras | Keras implementation of "One pixel attack for fool | summary | ||
1178 | flan | 🤗 | summary | ||
1177 | personalize-sam | 🤗 | Personalize Segment Anything Model (SAM) with 1 sh | summary | |
1175 | hmtl | 🤗 | 🌊HMTL: Hierarchical Multi-Task Learning - A State- | summary | |
1172 | magic123 | 🤗 | Official PyTorch Implementation of Magic123: One I | summary | |
1167 | ktrain | 🤗 | ktrain is a Python library that makes deep learnin | summary | |
1163 | poolformer | 🤗 | PoolFormer: MetaFormer Is Actually What You Need f | summary | |
1159 | musicinformationretrieval | Instructional notebooks on music information retri | summary | ||
1158 | KoBERT | Korean BERT pre-trained cased (KoBERT) | summary | ||
1154 | PPO-PyTorch | Minimal implementation of clipped objective Proxim | summary | ||
1147 | score_sde_pytorch | 🤗 | PyTorch implementation for Score-Based Generative | summary | |
1146 | multilingual-t5 | 🤗 | summary | ||
1146 | GANsNRoses | Official PyTorch repo for GAN's N' Roses. Diverse | summary | ||
1140 | NeRF-Factory | 🤗 | An awesome PyTorch NeRF library | summary | |
1138 | demogpt | 🤗 | Create 🦜️🔗 LangChain apps by just using prompts🌟 S | summary | |
1138 | GLIGEN | 🤗 | Open-Set Grounded Text-to-Image Generation | summary | |
1134 | dpm-solver | 🤗 | Official code for "DPM-Solver: A Fast ODE Solver f | summary | |
1132 | finBERT | 🤗 | Financial Sentiment Analysis with BERT | summary | |
1131 | cramming | 🤗 | Cramming the training of a (BERT-type) language mo | summary | |
1109 | mt3 | MT3: Multi-Task Multitrack Music Transcription | summary | ||
1103 | flexflow | 🤗 | A distributed deep learning framework. | summary | |
1103 | StyleGAN-nada | 🤗 | summary | ||
1096 | X-Decoder | 🤗 | [CVPR 2023] Official Implementation of X-Decoder f | summary | |
1090 | rfdiffusion | Code for running RFdiffusion | summary | ||
1089 | dwpose | 🤗 | "Effective Whole-body Pose Estimation with Two-sta | summary | |
1085 | ZoeDepth | 🤗 | Metric depth estimation from a single image | summary | |
1081 | ydata-synthetic | Synthetic data generators for tabular and time-ser | summary | ||
1080 | prompt2model | prompt2model - Generate Deployable Models from Nat | summary | ||
1078 | StableSR | 🤗 | Exploiting Diffusion Prior for Real-World Image Su | summary | |
1076 | fourier-feature-networks | Fourier Features Let Networks Learn High Frequency | summary | ||
1076 | sd-webui-modelscope-text2 | 🤗 | Auto1111 extension implementing text2video diffusi | summary | |
1075 | unidiffuser | 🤗 | Code and models for the paper "One Transformer Fit | summary | |
1074 | PPLM | 🤗 | Plug and Play Language Model implementation. Allow | summary | |
1073 | beir | 🤗 | A Heterogeneous Benchmark for Information Retrieva | summary | |
1071 | noisereduce | Noise reduction in python using spectral gating (s | summary | ||
1071 | rl-baselines-zoo | A collection of 100+ pre-trained RL agents using S | summary | ||
1064 | MetaTransformer | 🤗 | Meta-Transformer for Unified Multimodal Learning | summary | |
1056 | gan-compression | [CVPR 2020] GAN Compression: Efficient Architectur | summary | ||
1043 | ai-economist | Foundation is a flexible, modular, and composable | summary | ||
1042 | d3rlpy | An offline deep reinforcement learning library | summary | ||
1036 | awesome-jax | JAX - A curated list of resources https://github.c | summary | ||
1027 | stylegan-t | 🤗 | [ICML'23] StyleGAN-T: Unlocking the Power of GANs | summary | |
1022 | pytorch_tabular | A standard framework for modelling Deep Learning M | summary | ||
1022 | ceval | 🤗 | Official github repo for C-Eval, a Chinese evaluat | summary | |
1022 | TransformerTTS | 🤖💬 Transformer TTS: Implementation of a non-autore | summary | ||
1019 | tapas | 🤗 | End-to-end neural table-text understanding models. | summary | |
1017 | TextBox | 🤗 | TextBox 2.0 is a text generation library with pre- | summary | |
1017 | chatgpt-comparison-detect | 🤗 | Human ChatGPT Comparison Corpus (HC3), Detectors, | summary | |
1015 | xls | XLS: Accelerated HW Synthesis | summary | ||
1008 | restyle-encoder | Official Implementation for "ReStyle: A Residual-B | summary | ||
1007 | mario-gpt | 🤗 | Generating Mario Levels with GPT2. Code for the pa | summary | |
998 | stylegan2-distillation | summary | |||
997 | OneFormer | 🤗 | [CVPR 2023] OneFormer: One Transformer to Rule Uni | summary | |
996 | table-transformer | 🤗 | Table Transformer (TATR) is a deep learning model | summary | |
990 | PhiFlow | A differentiable PDE solving framework for machine | summary | ||
986 | image-background-remove-t | ✂️ Automated high-quality background removal frame | summary | ||
984 | jax-md | Differentiable, Hardware Accelerated, Molecular Dy | summary | ||
981 | question_generation | 🤗 | Neural question generation using transformers | summary | |
981 | VideoMAE | 🤗 | [NeurIPS 2022 Spotlight] VideoMAE: Masked Autoenco | summary | |
978 | aiops-handbook | 🤗 | Collection of slides, repositories, papers about A | summary | |
976 | stablevideo | 🤗 | [ICCV 2023] StableVideo: Text-driven Consistency-a | summary | |
973 | openlane | OpenLane is an automated RTL to GDSII flow based o | summary | ||
971 | qwen-vl | 🤗 | The official repo of Qwen-VL (通义千问-VL) chat & pret | summary | |
969 | Dromedary | 🤗 | Dromedary: towards helpful, ethical and reliable L | summary | |
968 | Dain-App | Source code for Dain-App | summary | ||
965 | torchdistill | 🤗 | A coding-free framework built on PyTorch for repro | summary | |
964 | awesome-bert-nlp | 🤗 | A curated list of NLP resources focused on Transfo | summary | |
963 | stable-diffusion-webui-wd | 🤗 | Labeling extension for Automatic1111's Web UI | summary | |
963 | coyo-dataset | 🤗 | COYO-700M: Large-scale Image-Text Pair Dataset | summary | |
961 | big_vision | Official codebase used to develop Vision Transform | summary | ||
959 | long_llama | 🤗 | LongLLaMA is a large language model capable of han | summary | |
958 | kogpt | 🤗 | KakaoBrain KoGPT (Korean Generative Pre-trained Tr | summary | |
957 | hyperstyle | Official Implementation for "HyperStyle: StyleGAN | summary | ||
951 | sefa | [CVPR 2021] Closed-Form Factorization of Latent Se | summary | ||
949 | diffusiondb | 🤗 | A large-scale text-to-image prompt gallery dataset | summary | |
943 | cellpose | a generalist algorithm for cellular segmentation w | summary | ||
939 | tabpfn | 🤗 | Official implementation of the TabPFN paper (https | summary | |
934 | Summarization-Papers | 🤗 | Summarization Papers | summary | |
931 | StyleNeRF | 🤗 | This is the open source implementation of the ICLR | summary | |
930 | deeplab2 | DeepLab2 is a TensorFlow library for deep labeling | summary | ||
928 | awesome-colab-notebooks | 🤗 | Collection of google colaboratory notebooks for fa | summary | |
925 | finrl-meta | FinRL-Meta: Dynamic datasets and market environme | summary | ||
907 | natspeech | 🤗 | A Non-Autoregressive Text-to-Speech (NAR-TTS) fram | summary | |
907 | unicorn | 🤗 | [ECCV'22 Oral] Towards Grand Unification of Object | summary | |
903 | unlimiformer | 🤗 | Public repo for the preprint "Unlimiformer: Long-R | summary | |
898 | awesome-segment-anything | 🤗 | Tracking and collecting papers/projects/others rel | summary | |
896 | volo | VOLO: Vision Outlooker for Visual Recognition | summary | ||
890 | genforce | An efficient PyTorch library for deep generative m | summary | ||
890 | lisa | 🤗 | Project Page for "LISA: Reasoning Segmentation via | summary | |
882 | graphein | Protein Graph Library | summary | ||
881 | stylegan_xl | 🤗 | [SIGGRAPH'22] StyleGAN-XL: Scaling StyleGAN to Lar | summary | |
881 | Neighborhood-Attention-Tr | 🤗 | [CVPR 2023] Neighborhood Attention Transformer and | summary | |
876 | gpt-2-Pytorch | Simple Text-Generator with OpenAI gpt-2 Pytorch Im | summary | ||
870 | pandallm | 🤗 | Panda项目是于2023年5月启动的开源海外中文大语言模型项目,致力于大模型时代探索整个技术栈,旨 | summary | |
869 | pix2pix-zero | 🤗 | Zero-shot Image-to-Image Translation [SIGGRAPH 2 | summary | |
868 | natural-language-image-se | Search photos on Unsplash using natural language | summary | ||
866 | ECON | 🤗 | [CVPR'23, Highlight] ECON: Explicit Clothed humans | summary | |
866 | One-2-3-45 | 🤗 | official code of "One-2-3-45: Any Single Image to | summary | |
864 | ddim | 🤗 | Denoising Diffusion Implicit Models | summary | |
863 | pythainlp | Thai Natural Language Processing in Python. | summary | ||
860 | AI-basketball-analysis | 🏀🤖🏀 AI web app and API | summary | ||
858 | projected_gan | 🤗 | [NeurIPS'21] Projected GANs Converge Faster | summary | |
856 | SpanBERT | 🤗 | Code for using and evaluating SpanBERT. | summary | |
856 | ERNIE-Pytorch | 🤗 | ERNIE Pytorch Version | summary | |
854 | replitlm | 🤗 | Inference code and configs for the ReplitLM model | summary | |
853 | deepspeed-mii | 🤗 | MII makes low-latency and high-throughput inferenc | summary | |
850 | fatezero | 🤗 | [ICCV 2023 Oral] "FateZero: Fusing Attentions for | summary | |
846 | awesome-animepapers | 🤗 | Papers, repository and other data about anime or m | summary | |
845 | KILT | 🤗 | Library for Knowledge Intensive Language Tasks | summary | |
843 | encoder4editing | Official implementation of "Designing an Encoder f | summary | ||
839 | bigscience | 🤗 | Central place for the engineering/scaling WG: docu | summary | |
839 | text2room | 🤗 | Text2Room generates textured 3D meshes from a give | summary | |
834 | mbrl-lib | Library for Model Based RL | summary | ||
834 | DNS-Challenge | 🤗 | This repo contains the scripts, models, and requir | summary | |
831 | what-if-tool | Source code/webpage/demos for the What-If Tool | summary | ||
831 | pytorch-image-classificat | Tutorials on how to implement a few key architectu | summary | ||
831 | icevision | An Agnostic Computer Vision Framework - Pluggable | summary | ||
825 | lightautoml | LAMA - automatic model creation framework | summary | ||
823 | ProtTrans | 🤗 | ProtTrans is providing state of the art pretrained | summary | |
821 | MedMNIST | [pip install medmnist] 18 MNIST-like Datasets for | summary | ||
820 | BERT-keras | Keras implementation of BERT with pre-trained weig | summary | ||
820 | whisper-timestamped | 🤗 | Multilingual Automatic Speech Recognition with wor | summary | |
817 | mlhub123 | 🤗 | 机器学习&深度学习网站资源汇总(Machine Learning Resources) | summary | |
811 | ast | Code for the Interspeech 2021 paper "AST: Audio Sp | summary | ||
809 | parrot_paraphraser | 🤗 | A practical and feature-rich paraphrasing framewor | summary | |
808 | cvpr2022-dagan | 🤗 | Official code for CVPR2022 paper: Depth-Aware Gene | summary | |
806 | CompilerGym | Reinforcement learning environments for compiler a | summary | ||
804 | clipseg | 🤗 | This repository contains the code of the CVPR 2022 | summary | |
802 | maxim | 🤗 | [CVPR 2022 Oral] Official repository for "MAXIM: M | summary | |
799 | ddnm | 🤗 | [ICLR 2023 Oral] Zero-Shot Image Restoration Using | summary | |
799 | safe-rlhf | 🤗 | Safe-RLHF: Constrained Value Alignment via Safe Re | summary | |
798 | Paper-Reading | 🤗 | 📖 Paper reading list in dialogue systems and natur | summary | |
795 | 2D-TAN | 🤗 | VideoX: a collection of video cross-modal models | summary | |
794 | VideoX | 🤗 | VideoX: a collection of video cross-modal models | summary | |
794 | viscpm | 🤗 | Chinese and English Multimodal Large Model Series | summary | |
792 | Text2LIVE | 🤗 | Official Pytorch Implementation for "Text2LIVE: Te | summary | |
790 | PTI | Official Implementation for "Pivotal Tuning for La | summary | ||
789 | Bert-Multi-Label-Text-Cla | 🤗 | This repo contains a PyTorch implementation of a p | summary | |
786 | fewshot-face-translation- | Generative adversarial networks integrating module | summary | ||
784 | clap | 🤗 | Contrastive Language-Audio Pretraining | summary | |
778 | moss-rlhf | 🤗 | MOSS-RLHF | summary | |
773 | noah-research | 🤗 | Noah Research | summary | |
770 | MM-REACT | 🤗 | Official repo for MM-REACT | summary | |
770 | biaffine-parser | 🤗 | 🚀 State-of-the-art parsers for natural lang | summary | |
769 | stable-diffusion | 🤗 | summary | ||
760 | CLUEPretrainedModels | 🤗 | 高质量中文预训练模型集合:最先进大模型、最快小模型、相似度专门模型 | summary | |
760 | pytorch-unet | Simple PyTorch implementations of U-Net/FullyConvN | summary | ||
754 | VAN-Classification | 🤗 | summary | ||
753 | godel | 🤗 | Large-scale pretrained models for goal-directed di | summary | |
753 | aphantasia | CLIP + FFT/DWT/RGB = text to image/video | summary | ||
752 | segment-anything-video | 🤗 | MetaSeg: Packaged version of the Segment Anything | summary | |
750 | deeplift | Public facing deeplift repo | summary | ||
749 | transformers-tutorials | 🤗 | Github repo with tutorials to fine tune transforme | summary | |
749 | conr | IJCAI2023 - Collaborative Neural Rendering using A | summary | ||
749 | speecht5 | 🤗 | Unified-Modal Speech-Text Pre-Training for Spoken | summary | |
745 | natural-instructions-expa | 🤗 | Expanding natural instructions | summary | |
745 | tango | 🤗 | Codes and Model of the paper "Text-to-Audio Genera | summary | |
745 | anycost-gan | [CVPR 2021] Anycost GANs for Interactive Image Syn | summary | ||
743 | YOLOS | 🤗 | [NeurIPS 2021] You Only Look at One Sequence | summary | |
743 | 4D-Humans | 🤗 | 4DHumans: Reconstructing and Tracking Humans with | summary | |
742 | NL-Augmenter | NL-Augmenter 🦎 → 🐍 A Collaborative Repository of N | summary | ||
742 | pyabsa | 🤗 | Sentiment Analysis, Text Classification, Text Augm | summary | |
741 | snntorch | Deep and online learning with spiking neural netwo | summary | ||
736 | pg-is-all-you-need | Policy Gradient is all you need! A step-by-step tu | summary | ||
734 | how-do-vits-work | (ICLR 2022 Spotlight) Official PyTorch implementat | summary | ||
733 | awesome-talking-head-gene | 🤗 | summary | ||
731 | xmanager | A platform for managing machine learning experimen | summary | ||
729 | Multilingual_Text_to_Spee | An implementation of Tacotron 2 that supports mult | summary | ||
728 | 3D-Reconstruction-with-De | 🤗 | List of projects for 3d reconstruction | summary | |
728 | data-validation | Library for exploring and validating machine learn | summary | ||
727 | UIE | 🤗 | Unified Structure Generation for Universal Informa | summary | |
726 | rewoo | 🤗 | Decoupling Reasoning from Observations for Efficie | summary | |
726 | vq-diffusion | 🤗 | Official implementation of VQ-Diffusion | summary | |
723 | Paint-by-Example | 🤗 | Paint by Example: Exemplar-based Image Editing wit | summary | |
720 | homemade_bookcorpus | 🤗 | Crawl BookCorpus | summary | |
720 | tsfel | An intuitive library to extract features from time | summary | ||
719 | lamini-lm | 🤗 | LaMini-LM: A Diverse Herd of Distilled Models from | summary | |
716 | Chat-Haruhi-Suzumiya | 🤗 | Chat凉宫春日, 由李鲁鲁, 冷子昂等同学开发的模仿二次元对话的聊天机器人。 | summary | |
716 | Text2Human | 🤗 | Code for Text2Human (SIGGRAPH 2022). Paper: Text2H | summary | |
715 | lhotse | Tools for handling speech data in machine learning | summary | ||
713 | flashtorch | Visualization toolkit for neural networks in PyTor | summary | ||
709 | auto-cot | Official implementation for "Automatic Chain of Th | summary | ||
708 | portuguese-bert | 🤗 | Portuguese pre-trained BERT models | summary | |
704 | cutler | 🤗 | Code release for "Cut and Learn for Unsupervised O | summary | |
702 | uniformer | 🤗 | [ICLR2022] official implementation of UniFormer | summary | |
702 | pix2seq | Pix2Seq codebase: multi-tasks with generative mode | summary | ||
702 | llm-awq | 🤗 | AWQ: Activation-aware Weight Quantization for LLM | summary | |
700 | CLIPasso | summary | |||
699 | MultiDiffusion | 🤗 | Official Pytorch Implementation for "MultiDiffusio | summary | |
698 | image2paragraph | 🤗 | [A toolbox for fun.] Transform Image into Unique P | summary | |
697 | GANSketching | Sketch Your Own GAN: Customizing a GAN model with | summary | ||
695 | fastformers | 🤗 | FastFormers - highly efficient transformer models | summary | |
693 | DAMO-ConvAI | 🤗 | DAMO-ConvAI: The official repository which contain | summary | |
693 | sgpt | 🤗 | SGPT: GPT Sentence Embeddings for Semantic Search | summary | |
691 | deforumstablediffusionloc | 🤗 | Local version of Deforum Stable Diffusion, support | summary | |
689 | paella | 🤗 | Official Implementation of Paella https://arxiv.or | summary | |
686 | learned_optimization | summary | |||
685 | InstColorization | summary | |||
684 | piml-toolbox | PiML (Python Interpretable Machine Learning) toolb | summary | ||
680 | hqtrack | 🤗 | Tracking Anything in High Quality | summary | |
679 | omnisafe | OmniSafe is an infrastructural framework for accel | summary | ||
677 | imbalanced-regression | [ICML 2021, Long Talk] Delving into Deep Imbalance | summary | ||
673 | ginza | 🤗 | A Japanese NLP Library using spaCy as framework ba | summary | |
672 | awesomekorean_data | 🤗 | 한국어 데이터 세트 링크 | summary | |
667 | pbdl-book | Welcome to the Physics-based Deep Learning Book (v | summary | ||
666 | semantic-segmentation | SOTA Semantic Segmentation Models in PyTorch | summary | ||
664 | rrhf | 🤗 | RRHF & Wombat | summary | |
661 | stable-diffusion-aestheti | 🤗 | Personalization for Stable Diffusion via Aesthetic | summary | |
659 | followyourpose | 🤗 | Follow-Your-Pose: This repo is the official implem | summary | |
658 | nncf | 🤗 | Neural Network Compression Framework for enhanced | summary | |
657 | plug-and-play | 🤗 | Official Pytorch Implementation for “Plug-and-Play | summary | |
654 | diffdock | 🤗 | Implementation of DiffDock: Diffusion Steps, Twist | summary | |
654 | data-copilot | 🤗 | Data-Copilot: Bridging Billions of Data and Humans | summary | |
652 | arcanegan | 🤗 | ArcaneGAN | summary | |
652 | wizardvicunalm | 🤗 | LLM that combines the principles of wizardLM and v | summary | |
652 | MotionDiffuse | 🤗 | MotionDiffuse: Text-Driven Human Motion Generation | summary | |
651 | smoothquant | 🤗 | [ICML 2023] SmoothQuant: Accurate and Efficient Po | summary | |
651 | luke | 🤗 | LUKE -- Language Understanding with Knowledge-base | summary | |
650 | symbolic_deep_learning | Code for "Discovering Symbolic Models from Deep Le | summary | ||
650 | unimatch | 🤗 | [TPAMI'23] Unifying Flow, Stereo and Depth Estimat | summary | |
645 | chinese-alpaca-lora | 🤗 | 骆驼:A Chinese finetuned instruction LLaMA. Develope | summary | |
644 | huatuogpt | 🤗 | HuatuoGPT, Towards Taming Language Models To Be a | summary | |
644 | 3DFuse | 🤗 | Official implementation of "Let 2D Diffusion Model | summary | |
643 | nasbench | NASBench: A Neural Architecture Search Dataset and | summary | ||
641 | odise | 🤗 | Official PyTorch implementation of ODISE: Open-Voc | summary | |
640 | karlo | 🤗 | summary | ||
637 | diffusionclip | 🤗 | [CVPR 2022] Official PyTorch Implementation for Di | summary | |
635 | easy-few-shot-learning | Ready-to-use code and tutorial notebooks to boost | summary | ||
634 | STEGO | Unsupervised Semantic Segmentation by Distilling F | summary | ||
633 | trainyourownyolo | Train a state-of-the-art yolov3 object detector fr | summary | ||
632 | BEAT | 🤗 | A Large-Scale Semantic and Emotional Multi-Modal D | summary | |
631 | chinese_speech_pretrain | 🤗 | chinese speech pretrained models | summary | |
630 | primeqa | 🤗 | The prime repository for state-of-the-art Multilin | summary | |
630 | musika | 🤗 | Fast Infinite Waveform Music Generation | summary | |
629 | MTTR | 🤗 | summary | ||
628 | torchbearer | torchbearer: A model fitting library for PyTorch | summary | ||
624 | icl_paperlist | 🤗 | Paper List for In-context Learning 🌷 | summary | |
622 | scikit-uplift | ❗ uplift modeling in scikit-learn styl | summary | ||
622 | voicefixer | 🤗 | General Speech Restoration | summary | |
619 | Multilingual-CLIP | 🤗 | OpenAI CLIP text encoders for multiple languages! | summary | |
615 | inaspeechsegmenter | CNN-based audio segmentation toolkit. Allows to de | summary | ||
613 | autofaiss | Automatically create Faiss knn indices with the mo | summary | ||
612 | promptclue | 🤗 | PromptCLUE, 全中文任务支持零样本学习模型 | summary | |
611 | imagereward | 🤗 | ImageReward: Learning and Evaluating Human Prefere | summary | |
609 | Transformer-MM-Explainabi | 🤗 | [ICCV 2021- Oral] Official PyTorch implementation | summary | |
608 | stylegan3-editing | Official Implementation of "Third Time's the Charm | summary | ||
606 | portrait-segmentation | Real-time portrait segmentation for mobile devices | summary | ||
603 | pandagpt | 🤗 | PandaGPT: One Model To Instruction-Follow Them All | summary | |
602 | cdqa | ⛔ [NOT MAINTAINED] An End-To-End Closed Domain Que | summary | ||
602 | WavAugment | A library for speech data augmentation in time-dom | summary | ||
601 | latent-nerf | 🤗 | Official Implementation for "Latent-NeRF for Shape | summary | |
600 | Cartoon-StyleGan2 | Fine-tuning StyleGAN2 for Cartoon Face Generation | summary | ||
600 | LION | 🤗 | Latent Point Diffusion Models for 3D Shape Generat | summary | |
600 | prompt-free-diffusion | 🤗 | Prompt-Free Diffusion: Taking "Text" out of Text-t | summary | |
599 | lightning-transformers | 🤗 | Flexible components pairing 🤗 Transformers with :z | summary | |
593 | neuspell | 🤗 | NeuSpell: A Neural Spelling Correction Toolkit | summary | |
592 | octis | OCTIS: Comparing Topic Models is Simple! A python | summary | ||
592 | segmentanyrgbd | 🤗 | Segment Any RGBD | summary | |
592 | Fast_Sentence_Embeddings | 🤗 | Compute Sentence Embeddings Fast! | summary | |
592 | models | 🤗 | Model Zoo for Intel® Architecture: contains Intel | summary | |
591 | dct-net | 🤗 | Official implementation of "DCT-Net: Domain-Calibr | summary | |
589 | VideoGPT | 🤗 | summary | ||
586 | FocalNet | 🤗 | [NeurIPS 2022] Official code for "Focal Modulation | summary | |
586 | gpt-4chan-public | 🤗 | Code for GPT-4chan | summary | |
584 | ONE-PEACE | 🤗 | A general representation model across vision, audi | summary | |
584 | cblue | 🤗 | 中文医疗信息处理基准CBLUE: A Chinese Biomedical Language Und | summary | |
582 | gpt4tools | 🤗 | GPT4Tools is an intelligent system that can automa | summary | |
580 | DensePhrases | 🤗 | ACL'2021: Learning Dense Representations of Phrase | summary | |
579 | alpaca_eval | 🤗 | An automatic evaluator for instruction-following l | summary | |
577 | icefall | 🤗 | summary | ||
573 | neural-backed-decision-tr | Making decision trees competitive with neural netw | summary | ||
573 | clinicalBERT | 🤗 | repository for Publicly Available Clinical BERT Em | summary | |
572 | knowlm | 🤗 | An Open-sourced Knowledgable Large Language Model | summary | |
572 | DisCo | 🤗 | DisCo: Referring Human Dance Generation in Real Wo | summary | |
572 | openfl | An open framework for Federated Learning. | summary | ||
569 | neural-collage | Collaging on Internal Representations: An Intuitiv | summary | ||
569 | nlp-tutorial | 🤗 | NLP新手入门教程 | summary | |
568 | spikegpt | 🤗 | Implementation of "SpikeGPT: Generative Pre-traine | summary | |
566 | KoELECTRA | 🤗 | Pretrained ELECTRA Model for Korean | summary | |
565 | xrayglm | 🤗 | 🩺 首个会看胸部X光片的中文多模态医学大模型 | The first Chinese Medical | |
565 | ForwardTacotron | ⏩ Generating speech in a single forward pass witho | summary | ||
564 | stereo-transformer | Revisiting Stereo Depth Estimation From a Sequence | summary | ||
563 | dreambooth-training-guide | 🤗 | summary | ||
562 | aequitas | Bias and Fairness Audit Toolkit | summary | ||
558 | PhoBERT | 🤗 | PhoBERT: Pre-trained language models for Vietnames | summary | |
557 | awesome-chatgpt | 🤗 | Selected ChatGPT demos, tools, articles, and more | summary | |
553 | fbrs_interactive_segmenta | [CVPR2020] f-BRS: Rethinking Backpropagating Refin | summary | ||
553 | TEXTurePaper | 🤗 | Official Implementation for "TEXTure: Text-Guided | summary | |
551 | controlvideo | 🤗 | [Arxiv 2023] Official pytorch implementation of "C | summary | |
549 | MotionBERT | 🤗 | [ICCV 2023] PyTorch Implementation of "MotionBERT: | summary | |
547 | ibot | iBOT 🤖: Image BERT Pre-Training with Online | summary | ||
546 | KENLG-Reading | 🤗 | Author: Wenhao Yu ([email protected]). ACM Computing Sur | summary | |
543 | recipenlg | 🤗 | Set of scripts and notebooks used to produce resul | summary | |
542 | cvinw_readings | 🤗 | A collection of papers on the topic of ``Computer | summary | |
541 | audio-diffusion | 🤗 | Apply diffusion models using the new Hugging Face | summary | |
539 | Mava | 🦁 A research-friendly codebase for fast experiment | summary | ||
539 | GigaSpeech | 🤗 | Large, modern dataset for speech recognition | summary | |
535 | internvideo | 🤗 | InternVideo: General Video Foundation Models via G | summary | |
535 | dl4g | Example code for the Siggraph Asia Tutorial Creati | summary | ||
533 | prize | 🤗 | A prize for finding tasks that cause large languag | summary | |
532 | SAM | Official Implementation for "Only a Matter of Styl | summary | ||
532 | rewriting | Rewriting a Deep Generative Model, ECCV 2020 (oral | summary | ||
531 | nmt-keras | Neural Machine Translation with Keras | summary | ||
530 | spvnas | [ECCV 2020] Searching Efficient 3D Architectures w | summary | ||
529 | difface | 🤗 | DifFace: Blind Face Restoration with Diffused Erro | summary | |
526 | KLUE | 🤗 | 📖 Korean NLU Benchmark | summary | |
526 | ritm_interactive_segmenta | Reviving Iterative Training with Mask Guidance for | summary | ||
525 | marllib | One repository is all that is necessary for Multi- | summary | ||
522 | probabilistic_unet | A U-Net combined with a variational auto-encoder t | summary | ||
521 | alpaca_farm | 🤗 | A simulation framework for RLHF and alternatives. | summary | |
520 | ic_gan | Official repository for the paper "Instance-Condit | summary | ||
519 | MonoScene | 🤗 | [CVPR 2022] "MonoScene: Monocular 3D Semantic Scen | summary | |
519 | ckip-transformers | 🤗 | CKIP Transformers | summary | |
516 | regionclip | 🤗 | [CVPR 2022] Official code for "RegionCLIP: Region- | summary | |
515 | trashnet | 🤗 | Dataset of images of trash; Torch-based CNN for ga | summary | |
514 | CrossWOZ | 🤗 | A Large-Scale Chinese Cross-Domain Task-Oriented D | summary | |
514 | ConSERT | 🤗 | Code for our ACL 2021 paper - ConSERT: A Contrasti | summary | |
514 | StyleSDF | 🤗 | summary | ||
513 | emu | 🤗 | Emu: An Open Multimodal Generalist | summary | |
513 | musicautobot | 🤗 | Using deep learning to generate music in MIDI form | summary | |
513 | inception | INCEpTION provides a semantic annotation platform | summary | ||
511 | chatgpt-failures | 🤗 | Failure archive for ChatGPT and similar models | summary | |
510 | Lifespan_Age_Transformati | Lifespan Age Transformation Synthesis code | summary | ||
507 | araBERT | 🤗 | Pre-trained Transformers for the Arabic Language U | summary | |
507 | rl_games | RL implementations | summary | ||
505 | NCBI_BERT | 🤗 | BlueBERT, pre-trained on PubMed abstracts and clin | summary | |
504 | DeepReg | Medical image registration using deep learning | summary | ||
504 | ithaca | Restoring and attributing ancient texts using deep | summary | ||
502 | Multimodal-Toolkit | 🤗 | Multimodal model for text and tabular data with Hu | summary | |
501 | Platypus | 🤗 | Code for fine-tuning Platypus fam LLMs using LoRA | summary | |
501 | cpm-live | 🤗 | Live Training for Open-source Big Models | summary | |
501 | unifiedskg | 🤗 | [EMNLP 2022] Unifying and multi-tasking structured | summary | |
500 | fastT5 | 🤗 | ⚡ boost inference speed of T5 models by 5x & reduc | summary | |
499 | jax-cfd | Computational Fluid Dynamics in JAX | summary | ||
496 | ChineseBert | 🤗 | Code for ACL 2021 paper "ChineseBERT: Chinese Pret | summary | |
496 | dont-stop-pretraining | 🤗 | Code associated with the Don't Stop Pretraining AC | summary | |
496 | kotlingrad | 🧩 Shape-Safe Symbolic Differentiation with Algebra | summary | ||
493 | diffuser | 🤗 | Code for the paper "Planning with Diffusion for Fl | summary | |
492 | DynamicViT | [NeurIPS 2021] [T-PAMI] DynamicViT: Efficient Visi | summary | ||
490 | concrete-ml | 🤗 | Concrete ML: Privacy Preserving ML framework built | summary | |
489 | ov-seg | 🤗 | This is the official PyTorch implementation of the | summary | |
489 | visualbert | 🤗 | Code for the paper "VisualBERT: A Simple and Perfo | summary | |
488 | PromptKG | 🤗 | PromptKG Family: a Gallery of Prompt Learning & KG | summary | |
487 | KoGPT2 | 🤗 | Korean GPT-2 pretrained cased (KoGPT2) | summary | |
485 | VIMA | 🤗 | Official Algorithm Implementation of ICML'23 Paper | summary | |
484 | text2light | [SIGGRAPH Asia 2022] Text2Light: Zero-Shot Text-Dr | summary | ||
484 | transfiner | 🤗 | Mask Transfiner for High-Quality Instance Segmenta | summary | |
483 | everydream-trainer | General fine tuning for Stable Diffusion | summary | ||
482 | small-text | Active Learning for Text Classification in Python | summary | ||
481 | hard-prompts-made-easy | 🤗 | summary | ||
481 | lambda-diffusers | 🤗 | summary | ||
479 | EVA3D | 🤗 | [ICLR 2023 Spotlight] EVA3D: Compositional 3D Huma | summary | |
479 | segment-any-anomaly | 🤗 | Official implementation of "Segment Any Anomaly wi | summary | |
476 | Attend-and-Excite | 🤗 | Official Implementation for "Attend-and-Excite: At | summary | |
476 | zerocostdl4mic | ZeroCostDL4Mic: A Google Colab based no-cost toolb | summary | ||
475 | biomedlm | 🤗 | summary | ||
474 | pips | 🤗 | Particle Video Revisited | summary | |
473 | dalle2-laion | 🤗 | Pretrained Dalle2 from laion | summary | |
471 | diffusion-point-cloud | 🤗 | 💭 Diffusion Probabilistic Models f | summary | |
470 | ml_privacy_meter | Privacy Meter: An open-source library to audit dat | summary | ||
463 | xverse-13b | 🤗 | XVERSE-13B: A multilingual large language model de | summary | |
463 | beto | 🤗 | BETO - Spanish version of the BERT model | summary | |
462 | painttransformer | 🤗 | Officially unofficial re-implementation of paper: | summary | |
458 | daam | 🤗 | Diffusion attentive attribution maps for interpret | summary | |
457 | MultiMAE | 🤗 | MultiMAE: Multi-modal Multi-task Masked Autoencode | summary | |
457 | gretel-synthetics | Synthetic data generators for structured and unstr | summary | ||
457 | up-detr | [TPAMI 2022 & CVPR2021 Oral] UP-DETR: Unsupervised | summary | ||
456 | indicnlp_catalog | 🤗 | A collaborative catalog of NLP resources for Indic | summary | |
456 | robopianist | 🎹 🤖 A benchmark for high-dimensional robot control | summary | ||
454 | Cornell-Conversational-An | ConvoKit is a toolkit for extracting conversationa | summary | ||
454 | cnstd | 🤗 | CnSTD: 基于 PyTorch/MXNet 的 中文/英文 场景文字检测(Scene Text | summary | |
454 | long-context | 🤗 | This repository contains code and tooling for the | summary | |
453 | string2string | 🤗 | String-to-String Algorithms for Natural Language P | summary | |
452 | macaw | 🤗 | Multi-angle c(q)uestion answering | summary | |
452 | styleformer | 🤗 | A Neural Language Style Transfer framework to tran | summary | |
451 | xmtf | 🤗 | Crosslingual Generalization through Multitask Fine | summary | |
450 | shikra | 🤗 | summary | ||
448 | bert-japanese | 🤗 | BERT models for Japanese text. | summary | |
446 | transgpt | 🤗 | summary | ||
446 | h3 | 🤗 | Language Modeling with the H3 State Space Model | summary | |
446 | normalizing-flows | PyTorch implementation of normalizing flow models | summary | ||
444 | FiD | 🤗 | Fusion-in-Decoder | summary | |
444 | sjc | 🤗 | Score Jacobian Chaining: Lifting Pretrained 2D Dif | summary | |
444 | StyleDrop-PyTorch | 🤗 | Unoffical implement for [StyleDrop](https://arxiv. | summary | |
444 | aclpubcheck | 🤗 | Tools for checking ACL paper submissions | summary | |
444 | idinvert | [ECCV 2020] In-Domain GAN Inversion for Real Image | summary | ||
441 | ma-gym | A collection of multi agent environments based on | summary | ||
441 | FinBERT | 🤗 | A Pretrained BERT Model for Financial Communicatio | summary | |
439 | cpt | 🤗 | CPT: A Pre-Trained Unbalanced Transformer for Both | summary | |
439 | textlesslib | Library for Textless Spoken Language Processing | summary | ||
439 | spqr | 🤗 | summary | ||
438 | indonlu | 🤗 | The first-ever vast natural language processing be | summary | |
438 | PITI | 🤗 | PITI: Pretraining is All You Need for Image-to-Ima | summary | |
437 | mlsd | 🤗 | Official Tensorflow implementation of "M-LSD: Towa | summary | |
436 | Diffusion-GAN | 🤗 | Official PyTorch implementation for paper: Diffusi | summary | |
435 | aizynthfinder | A tool for retrosynthetic planning | summary | ||
434 | scenedreamer | 🤗 | SceneDreamer: Unbounded 3D Scene Generation from 2 | summary | |
433 | mistral | 🤗 | Mistral: A strong, northwesterly wind: Framework f | summary | |
432 | guwenbert | 🤗 | GuwenBERT: 古文预训练语言模型(古文BERT) A Pre-trained Langua | summary | |
432 | meltingpot | A suite of test scenarios for multi-agent reinforc | summary | ||
428 | fba_matting | 🤗 | Official repository for the paper F, B, Alpha Matt | summary | |
428 | magma | 🤗 | MAGMA - a GPT-style multimodal model that can unde | summary | |
427 | clickbench | ClickBench: a Benchmark For Analytical Databases | summary | ||
425 | ConvLab-2 | 🤗 | ConvLab-2: An Open-Source Toolkit for Building, Ev | summary | |
425 | phate | PHATE (Potential of Heat-diffusion for Affinity-ba | summary | ||
424 | FasterViT | 🤗 | Official PyTorch implementation of FasterViT: Fast | summary | |
423 | HFGI | CVPR 2022 HFGI: High-Fidelity GAN Inversion for Im | summary | ||
423 | evaporate | 🤗 | This repo contains data and code for the paper "La | summary | |
422 | KcBERT | 🤗 | 🤗 Pretrained BERT model & WordPiece tokenizer trai | summary | |
422 | learning-to-communicate | Learning to Communicate with Deep Multi-Agent Rein | summary | ||
422 | photoguard | 🤗 | Raising the Cost of Malicious AI-Powered Image Edi | summary | |
422 | phyre | PHYRE is a benchmark for physical reasoning. | summary | ||
420 | keytotext | 🤗 | Keywords to Sentences | summary | |
420 | transformerlens | summary | |||
420 | turkish-bert | 🤗 | Turkish BERT/DistilBERT, ELECTRA and ConvBERT mode | summary | |
419 | t-zero | 🤗 | Reproduce results and replicate training fo T0 (Mu | summary | |
419 | text-to-video-finetuning | 🤗 | Finetune ModelScope's Text To Video model using Di | summary | |
419 | StyleSwin | 🤗 | [CVPR 2022] StyleSwin: Transformer-based GAN for H | summary | |
418 | simctg | 🤗 | [NeurIPS'22 Spotlight] A Contrastive Framework for | summary | |
416 | yarn | 🤗 | YaRN: Efficient Context Window Extension of Large | summary | |
415 | coderl | 🤗 | This is the official code for the paper CodeRL: Ma | summary | |
415 | uniem | 🤗 | unified embedding model | summary | |
414 | YOLOPv2 | 🤗 | YOLOPv2: Better, Faster, Stronger for Panoptic dri | summary | |
413 | matting-anything | 🤗 | Matting Anything Model (MAM), an efficient and ver | summary | |
411 | GenerativeImage2Text | 🤗 | GIT: A Generative Image-to-text Transformer for Vi | summary | |
410 | medicalgpt-zh | 🤗 | 明医 (MING):中文医疗问诊大模型 | summary | |
409 | metadrive | MetaDrive: Composing Diverse Scenarios for General | summary | ||
409 | open-instruct | 🤗 | summary | ||
409 | splade | 🤗 | SPLADE: sparse neural search (SIGIR21, SIGIR22) | summary | |
407 | relateanything | 🤗 | Relate Anything Model is capable of taking an imag | summary | |
407 | neptune-client | 📒 The MLOps stack component for experiment | summary | ||
407 | kobart | 🤗 | Korean BART | summary | |
405 | csl | 🤗 | [COLING 2022] CSL: A Large-scale Chinese Scientifi | summary | |
405 | kullm | 🤗 | ☁️ 구름(KULLM): 고려대학교에서 개발한, 한국어에 특화된 LLM | summary | |
404 | quantus | Quantus is an eXplainable AI toolkit for responsib | summary | ||
402 | hierarchicalforecast | Probabilistic Hierarchical forecasting 👑 with stat | summary | ||
401 | ScienceQA | 🤗 | Data and code for NeurIPS 2022 Paper "Learn to Exp | summary | |
401 | manifest | 🤗 | Prompt programming with FMs. | summary | |
401 | TransformerSum | 🤗 | Models to perform neural summarization (extractive | summary | |
400 | ProDiff | 🤗 | PyTorch Implementation of ProDiff (ACM-MM'22) with | summary | |
400 | Uni-Mol | Official Repository for the Uni-Mol Series Methods | summary | ||
399 | tevr-asr-tool | 🤗 | State-of-the-art (ranked #1 Aug 2022) German Speec | summary | |
399 | pysentimiento | 🤗 | A Python multilingual toolkit for Sentiment Analys | summary | |
398 | pykale | Knowledge-Aware machine LEarning (KALE): accessibl | summary | ||
398 | polyglot | 🤗 | Polyglot: Large Language Models of Well-balanced C | summary | |
397 | cycle-diffusion | 🤗 | [ICCV 2023] Zero-shot image editing with stochasti | summary | |
395 | Toon-Me | A Deep Learning project to Toon Portrait Images | summary | ||
394 | BMC | Notes on Scientific Computing for Biomechanics and | summary | ||
394 | 6drepnet | 🤗 | Official Pytorch implementation of 6DRepNet: 6D R | summary | |
394 | uni-controlnet | 🤗 | summary | ||
393 | gymnax | RL Environments in JAX 🌍 | summary | ||
392 | datacomp | 🤗 | DataComp: In search of the next generation of mult | summary | |
390 | NLP_bahasa_resources | 🤗 | A Curated List of Dataset and Usable Library Resou | summary | |
387 | thorsten-voice | Thorsten-Voice: A free to use, offline working, hi | summary | ||
387 | freevc | 🤗 | FreeVC: Towards High-Quality Text-Free One-Shot Vo | summary | |
387 | parseq | 🤗 | Scene Text Recognition with Permuted Autoregressiv | summary | |
387 | Live3D-v2 | Neural Rendering with Attention: An Incremental Im | summary | ||
387 | fromage | 🤗 | 🧀 Code and models for the ICML 2023 paper "Groundi | summary | |
384 | x-vlm | 🤗 | X-VLM: Multi-Grained Vision Language Pre-Training | summary | |
383 | GPTZero | 🤗 | An open-source implementation of GPTZero | summary | |
381 | elite | 🤗 | ELITE: Encoding Visual Concepts into Textual Embed | summary | |
381 | neuralcompression | A collection of tools for neural compression enthu | summary | ||
380 | HyperNetX | Python package for hypergraph analysis and visuali | summary | ||
380 | Compositional-Visual-Gene | 🤗 | [ECCV 2022] Compositional Generation using Diffusi | summary | |
379 | jumanji | 🤗 | 🕹️ A diverse suite of scalable reinforcement learn | summary | |
378 | chatcaptioner | 🤗 | Official Repository of ChatCaptioner | summary | |
378 | nnsplit | 🤗 | Code for Where's the Point? Self-Supervised Multil | summary | |
378 | purejaxrl | Really Fast End-to-End Jax RL Implementations | summary | ||
376 | U-ViT | A PyTorch implementation of the paper "All are Wor | summary | ||
375 | squeezellm | 🤗 | SqueezeLLM: Dense-and-Sparse Quantization | summary | |
375 | FastSurfer | PyTorch implementation of FastSurferCNN | summary | ||
375 | openbiomed | 🤗 | summary | ||
375 | pyctcdecode | 🤗 | A fast and lightweight python-based CTC beam searc | summary | |
373 | maxvit | [ECCV 2022] Official repository for "MaxViT: Multi | summary | ||
373 | RoFormer_pytorch | 🤗 | RoFormer V1 & V2 pytorch | summary | |
372 | mucgec | 🤗 | MuCGEC中文纠错数据集及文本纠错SOTA模型开源;Code & Data for our NAA | summary | |
371 | SOAT | 🤗 | Official PyTorch repo for StyleGAN of All Trades: | summary | |
371 | swin2sr | 🤗 | Swin2SR: SwinV2 Transformer for Compressed Image S | summary | |
371 | masactrl | 🤗 | Consistent Image Synthesis and Editing, ICCV 2023 | summary | |
369 | wavjourney | 🤗 | WavJourney: Compositional Audio Creation with LLMs | summary | |
369 | ims-toucan | 🤗 | Text-to-Speech Toolkit of the Speech and Language | summary | |
368 | arxiv-pdf-abs | 🤗 | Your browser's reference manager: automatic paper | summary | |
366 | pysteps | Python framework for short-term ensemble predictio | summary | ||
366 | gcvit | 🤗 | [ICML 2023] Official PyTorch implementation of Glo | summary | |
365 | styleganex | 🤗 | [ICCV 2023] StyleGANEX: StyleGAN-Based Manipulatio | summary | |
364 | open-musiclm | 🤗 | Implementation of MusicLM, a text to music model p | summary | |
363 | DeCLUTR | 🤗 | The corresponding code from our paper "DeCLUTR: De | summary | |
362 | smplpix | SMPLpix: Neural Avatars from 3D Human Models | summary | ||
362 | LongChat | 🤗 | Official repository for LongChat and LongEval | summary | |
362 | rome | Locating and editing factual associations in GPT ( | summary | ||
362 | T2M-GPT | 🤗 | (CVPR 2023) Pytorch implementation of “T2M-GPT: Ge | summary | |
361 | DeepPoseKit | a toolkit for pose estimation using deep learning | summary | ||
358 | wespeaker | 🤗 | Research and Production Oriented Speaker Recogniti | summary | |
357 | scikit-fem | Simple finite element assemblers | summary | ||
355 | biomedical | 🤗 | Tools for curating biomedical training data for la | summary | |
355 | foldingdiff | 🤗 | Diffusion models of protein structure; trigonometr | summary | |
355 | LMkor | Pretrained Language Models for Korean | summary | ||
354 | reversion | 🤗 | ReVersion: Diffusion-Based Relation Inversion from | summary | |
354 | LinkBERT | 🤗 | [ACL 2022] LinkBERT: A Knowledgeable Language Mode | summary | |
353 | lorahub | 🤗 | The official repository of paper "LoraHub: Efficie | summary | |
353 | fbcnn | 🤗 | Official Code for ICCV 2021 paper "Towards Flexibl | summary | |
352 | PIDM | Person Image Synthesis via Denoising Diffusion Mod | summary | ||
352 | Awesome-Sketch-Synthesis | 📚 A collection of papers about Sketch Synthe | summary | ||
351 | nagisa | 🤗 | A Japanese tokenizer based on recurrent neural net | summary | |
351 | lavila | 🤗 | Code release for "Learning Video Representations f | summary | |
350 | computation-thru-dynamics | Understanding computation in artificial and biolog | summary | ||
350 | high-fidelity-generative- | Pytorch implementation of High-Fidelity Generative | summary | ||
349 | TediGAN | [CVPR 2021] Pytorch implementation for TediGAN: Te | summary | ||
349 | nn_pruning | 🤗 | Prune a model while finetuning or training. | summary | |
348 | evosax | Evolution Strategies in JAX 🦎 | summary | ||
348 | bigcode-evaluation-harnes | 🤗 | A framework for the evaluation of autoregressive c | summary | |
347 | dl-translate | 🤗 | Translation library built on 🤗 transformers suppor | summary | |
346 | academicodec | 🤗 | AcademiCodec: An Open Source Audio Codec Model for | summary | |
345 | 3d-mri-brain-tumor-segmen | Keras implementation of the paper "3D MRI brain tu | summary | ||
345 | lambdaprompt | λprompt - A functional programming interface for b | summary | ||
344 | music-spectrogram-diffusi | summary | |||
343 | unispeech | 🤗 | UniSpeech - Large Scale Self-Supervised Learning | summary | |
343 | perceiver-io | 🤗 | A PyTorch implementation of Perceiver, Perceiver I | summary | |
342 | MIRNet-TFJS | TensorFlow JS models for MIRNet for low-light💡 ima | summary | ||
342 | An-Intuitive-Tutorial-to- | An Intuitive Tutorial to Gaussian Processes Regres | summary | ||
342 | mind2web | 🤗 | Dataset, code and models for the paper "Mind2Web: | summary | |
341 | panda-gym | 🤗 | Set of robotic environments based on PyBullet phys | summary | |
341 | tabular-benchmark | 🤗 | summary | ||
338 | arbml | Implementation of many Arabic NLP and CV projects. | summary | ||
338 | awesome-industrial-anomal | 🤗 | Paper list and datasets for industrial image anoma | summary | |
337 | stable-diffusion-webui-pr | 🤗 | stable-diffusion-webui-promptgen | summary | |
337 | pyterrier | A Python framework for performing information retr | summary | ||
337 | COVID-QA | 🤗 | API & Webapp to answer questions about COVID-19. U | summary | |
337 | cornucopia-llama-fin-chin | 🤗 | 聚宝盆(Cornucopia): 提供一套高效训练金融垂直领域LLM的框架(Pretraining、 | summary | |
337 | erasing | 🤗 | Erasing Concepts from Diffusion Models | summary | |
336 | CoqGym | 🤗 | A Learning Environment for Theorem Proving with th | summary | |
335 | Nystromformer | 🤗 | summary | ||
334 | metrabs | Estimate absolute 3D human poses from RGB images. | summary | ||
334 | pair-diffusion | 🤗 | PAIR-Diffusion: Object-Level Image Editing with St | summary | |
333 | DialogStudio | 🤗 | DialogStudio: Towards Richest and Most Diverse Uni | summary | |
333 | dialogrpt | 🤗 | EMNLP 2020: "Dialogue Response Ranking Training wi | summary | |
332 | geometric-gnn-dojo | Geometric GNN Dojo provides unified implementation | summary | ||
332 | peacasso | 🤗 | UI interface for experimenting with multimodal (te | summary | |
332 | geometry-free-view-synthe | Is a geometric model required to synthesize novel | summary | ||
331 | VL-T5 | PyTorch code for "Unifying Vision-and-Language Tas | summary | ||
331 | OpenPSG | 🤗 | Benchmarking Panoptic Scene Graph Generation (PSG) | summary | |
331 | t-few | 🤗 | Code for T-Few from "Few-Shot Parameter-Efficient | summary | |
330 | dl-for-emo-tts | 💻 🤖 A summary on our attempts at u | summary | ||
329 | rebel | 🤗 | REBEL is a seq2seq model that simplifies Relation | summary | |
328 | lavin | 🤗 | Official implementations of "Cheap and Quick: Effi | summary | |
326 | ontogpt | 🤗 | LLM-based ontological extraction tools, including | summary | |
326 | pmc-llama | 🤗 | The official codes for "PMC-LLaMA: Towards Buildin | summary | |
326 | live-layerwise-image-vect | 🤗 | [CVPR 2022 Oral] Towards Layer-wise Image Vectoriz | summary | |
325 | flan-alpaca | 🤗 | This repository contains code for extending the St | summary | |
325 | tner | 🤗 | Language model fine-tuning on NER with an easy int | summary | |
324 | FMix | Official implementation of 'FMix: Enhancing Mixed | summary | ||
324 | excess-mortality | Excess mortality during COVID-19 pandemic | summary | ||
324 | Conv-TasNet | 🤗 | Conv-TasNet: Surpassing Ideal Time-Frequency Magni | summary | |
324 | intel-extension-for-trans | 🤗 | ⚡Extending Hugging Face transformers APIs for Tran | summary | |
323 | cdlib | Community Discovery Library | summary | ||
321 | ort | 🤗 | Accelerate PyTorch models with ONNX Runtime | summary | |
320 | LEBERT | 🤗 | Code for the ACL2021 paper "Lexicon Enhanced Chine | summary | |
320 | long-summarization | 🤗 | Resources for the NAACL 2018 paper "A Discourse-Aw | summary | |
320 | seq2seq-keyphrase | 🤗 | summary | ||
320 | ocr-sam | 🤗 | Combining MMOCR with Segment Anything & Stable Dif | summary | |
320 | conditionaldetr | 🤗 | This repository is an official implementation of t | summary | |
319 | facedancer | 🤗 | summary | ||
319 | gpt4roi | 🤗 | GPT4RoI: Instruction Tuning Large Language Model o | summary | |
319 | unicl | 🤗 | [CVPR 2022] Official code for "Unified Contrastive | summary | |
318 | NLP_Datasets | 🤗 | My NLP datasets for Russian language | summary | |
318 | discodiffusion-warp | DiscoDiffusion Warp | summary | ||
318 | autobound | AutoBound automatically computes upper and lower b | summary | ||
317 | fairness-indicators | Tensorflow's Fairness Evaluation and Visualization | summary | ||
317 | electra_pytorch | 🤗 | Pretrain and finetune ELECTRA with fastai and hugg | summary | |
317 | Splice | Official Pytorch Implementation for "Splicing ViT | summary | ||
316 | vdbfusion | C++/Python Sparse Volumetric TSDF Fusion | summary | ||
315 | neuromancer | Pytorch-based framework for solving parametric con | summary | ||
313 | vocos | 🤗 | Vocos: Closing the gap between time-domain and Fou | summary | |
313 | pert | 🤗 | PERT: Pre-training BERT with Permuted Language Mod | summary | |
313 | Trending-in-3D-Vision | An on-going paper list on new trends in 3D vision | summary | ||
313 | TransPose | 🤗 | PyTorch Implementation for "TransPose: Keypoint lo | summary | |
312 | instruct-eval | 🤗 | This repository contains code to quantitatively ev | summary | |
312 | cord | 🤗 | CORD: A Consolidated Receipt Dataset for Post-OCR | summary | |
312 | PeRFception | 🤗 | [NeurIPS2023] Official implementation of PeRFcepti | summary | |
311 | landmark-attention | 🤗 | Landmark Attention: Random-Access Infinite Context | summary | |
311 | fastseg | 📸 PyTorch implementation of MobileNetV3 for real-t | summary | ||
311 | tweeteval | 🤗 | Repository for TweetEval | summary | |
310 | neural-api | CAI NEURAL API - Pascal based deep learning neural | summary | ||
310 | TF-ICON | 🤗 | ICCV 2023. Official implementation of TF-ICON: Dif | summary | |
309 | maskgit | Official Jax Implementation of MaskGIT | summary | ||
309 | dlg | [NeurIPS 2019] Deep Leakage From Gradients | summary | ||
307 | every-single-day-i-tldr | 🤗 | A daily digest of the articles or videos I've foun | summary | |
307 | ELI5 | 🤗 | Scripts and links to recreate the ELI5 dataset. | summary | |
307 | BalancedMSE | 🤗 | [CVPR 2022 Oral] Balanced MSE for Imbalanced Visua | summary | |
306 | pytorch_warmup | Learning Rate Warmup in PyTorch | summary | ||
306 | distill-sd | 🤗 | Segmind Distilled diffusion | summary | |
306 | variational-dropout-spars | Sparse Variational Dropout, ICML 2017 | summary | ||
304 | crop-clip | 🤗 | Crop using CLIP | summary | |
302 | fire-detection-from-image | 🤗 | Detect fire in images using neural nets | summary | |
300 | source_separation | Deep learning based speech source separation using | summary | ||
300 | text-to-sound-synthesis | 🤗 | The source code of our paper "Diffsound: discrete | summary | |
300 | real-esrgan | 🤗 | PyTorch implementation of Real-ESRGAN model | summary | |
299 | apps | 🤗 | APPS: Automated Programming Progress Standard (Neu | summary | |
299 | mixture-of-diffusers | 🤗 | Mixture of Diffusers for scene composition and hig | summary | |
299 | CodeTalker | [CVPR 2023] CodeTalker: Speech-Driven 3D Facial An | summary | ||
298 | awesome-materials-informa | 🤗 | Curated list of known efforts in materials informa | summary | |
298 | storydalle | 🤗 | summary | ||
298 | bert-loves-chemistry | 🤗 | bert-loves-chemistry: a repository of HuggingFace | summary | |
297 | COMET | 🤗 | A Neural Framework for MT Evaluation | summary | |
297 | docTTTTTquery | 🤗 | docTTTTTquery document expansion model | summary | |
296 | illumination-adaptive-tra | 🤗 | [BMVC 2022] You Only Need 90K Parameters to Adapt | summary | |
295 | anime-face-detector | 🤗 | Anime Face Detector using mmdet and mmpose | summary | |
295 | examples | 🤗 | Example code and applications for machine learning | summary | |
295 | lvdm | 🤗 | LVDM: Latent Video Diffusion Models for High-Fidel | summary | |
295 | pixel | 🤗 | Research code for pixel-based encoders of language | summary | |
294 | soft-vc | Soft speech units for voice conversion | summary | ||
294 | PytorchWaveNetVocoder | WaveNet-Vocoder implementation with pytorch. | summary | ||
293 | llm-pruner | 🤗 | LLM-Pruner: On the Structural Pruning of Large Lan | summary | |
291 | picard | 🤗 | PICARD - Parsing Incrementally for Constrained Aut | summary | |
291 | lens | This is the official repository for the LENS (Larg | summary | ||
291 | lm-scorer | 📃Language Model based sentences scoring library | |||
291 | w2v2-how-to | 🤗 | How to use our public wav2vec2 dimensional emotion | summary | |
291 | awesome-dl-projects | This is a collection of the code that accompanies | summary | ||
290 | openalpaca | 🤗 | OpenAlpaca: A Fully Open-Source Instruction-Follow | summary | |
289 | virtualhome | API to run VirtualHome, a Multi-Agent Household Si | summary | ||
289 | metaformer | 🤗 | MetaFormer Baselines for Vision | summary | |
289 | truthfulqa | TruthfulQA: Measuring How Models Imitate Human Fal | summary | ||
288 | uni-fold | An open-source platform for developing protein mod | summary | ||
288 | pygaggle | 🤗 | a gaggle of deep neural architectures for text ran | summary | |
287 | medalpaca | 🤗 | LLM finetuned for medical question answering | summary | |
287 | llmdrift | summary | |||
287 | my_tech_resources | List of tech resources future me and other Javascr | summary | ||
286 | fer | Facial Expression Recognition with a deep neural n | summary | ||
286 | webvid | 🤗 | Large-scale text-video dataset. 10 million caption | summary | |
284 | RawNet | 🤗 | Official repository for RawNet, RawNet2, and RawNe | summary | |
284 | Video-P2P | 🤗 | Video-P2P: Video Editing with Cross-attention Cont | summary | |
283 | Holocron | 🤗 | PyTorch implementations of recent Computer Vision | summary | |
283 | hyena-dna | 🤗 | Official implementation for HyenaDNA, a long-range | summary | |
282 | nnabla-examples | Neural Network Libraries https://nnabla.org/ - Exa | summary | ||
282 | yulan-chat | 🤗 | YuLan-Chat: An Open-Source Bilingual Chatbot | summary | |
281 | doctr | 🤗 | The official code for “DocTr: Document Image Trans | summary | |
280 | midi-ddsp | 🤗 | Synthesis of MIDI with DDSP (https://midi-ddsp.git | summary | |
280 | lm-watermarking | 🤗 | summary | ||
279 | informative-drawings | 🤗 | Unpaired line drawing generation | summary | |
279 | tuned-lens | 🤗 | Tools for understanding how transformer prediction | summary | |
279 | brio | 🤗 | ACL 2022: BRIO: Bringing Order to Abstractive Summ | summary | |
278 | PNDM | 🤗 | The official implementation for Pseudo Numerical M | summary | |
278 | cmmlu | 🤗 | CMMLU: Measuring massive multitask language unders | summary | |
277 | prompt-diffusion | 🤗 | Official PyTorch implementation of the paper "In-C | summary | |
275 | chinese-llama-2 | 🤗 | improve Llama-2's proficiency in comprehension, ge | summary | |
274 | japanese-stable-diffusion | 🤗 | Japanese Stable Diffusion is a Japanese specific l | summary | |
274 | majesty-diffusion | 🤗 | Majesty Diffusion by @Dango233(@Dango233max) and @ | summary | |
274 | stylegan2-projecting-imag | Projecting images to latent space with StyleGAN2. | summary | ||
274 | GenerSpeech | 🤗 | PyTorch Implementation of GenerSpeech (NeurIPS'22) | summary | |
273 | EGG | EGG: Emergence of lanGuage in Games | summary | ||
272 | rwkv-cpp-cuda | 🤗 | A torchless, c++ rwkv implementation using 8bit qu | summary | |
272 | Stable-Alignment | 🤗 | Multi-agent Social Simulation + Efficient, Effecti | summary | |
272 | tensorflow-coder | summary | |||
272 | adversecleaner | 🤗 | Remove adversarial noise from images | summary | |
272 | muskits | An opensource music processing toolkit | summary | ||
271 | skrl | 🤗 | Modular reinforcement learning library (on PyTorch | summary | |
271 | paraphrase-generator | 🤗 | A paraphrase generator built using the T5 model wh | summary | |
271 | safe-reinforcement-learni | The repository is for safe reinforcement learning | summary | ||
270 | ENet-Real-Time-Semantic-S | ENet - A Neural Net Architecture for real time Sem | summary | ||
270 | expertllama | 🤗 | An opensource ChatBot built with ExpertPrompting w | summary | |
269 | TokenCut | 🤗 | (CVPR 2022) Pytorch implementation of "Self-superv | summary | |
268 | educhat | 🤗 | An open-source educational chat model from ICALK, | summary | |
268 | face_toolbox_keras | A collection of deep learning frameworks ported to | summary | ||
268 | UserControllableLT | 🤗 | PyTorch implementation of ``User-Controllable Late | summary | |
266 | aesthetic-predictor | A linear estimator on top of clip to predict the a | summary | ||
266 | wizmap | 🤗 | Explore and interpret large embeddings in your bro | summary | |
265 | toolformer | 🤗 | summary | ||
265 | styleclipdraw | Styled text-to-drawing synthesis method. Featured | summary | ||
265 | gluestick | Joint Deep Matcher for Points and Lines 🖼️💥🖼️ (ICC | summary | ||
264 | torchsynth | A GPU-optional modular synthesizer in pytorch, 162 | summary | ||
264 | diffcse | 🤗 | Code for the NAACL 2022 long paper "DiffCSE: Diffe | summary | |
263 | earth-forecasting-transfo | Official implementation of Earthformer | summary | ||
263 | cheetah | 🤗 | summary | ||
263 | gpl | 🤗 | Powerful unsupervised domain adaptation method for | summary | |
263 | HRFAE | Official implementation for paper High Resolution | summary | ||
262 | lilt | 🤗 | Official PyTorch implementation of LiLT: A Simple | summary | |
262 | incoder | 🤗 | Generative model for code infilling and synthesis | ||
262 | conditional-flow-matching | Conditional Flow Matching: Simulation-Free Dynamic | summary | ||
262 | hatespeechdata | 🤗 | Catalog of abusive language data (PLoS 2020) | summary | |
261 | neural-painters | summary | |||
260 | zshot | 🤗 | Zero and Few shot named entity & relationships rec | summary | |
260 | densediffusion | 🤗 | Official Pytorch Implementation of DenseDiffusion | summary | |
259 | retinaface-tf2 | RetinaFace (Single-stage Dense Face Localisation i | summary | ||
259 | putting-nerf-on-a-diet | 🤗 | Putting NeRF on a Diet: Semantically Consistent Fe | summary | |
259 | Council-GAN | Implementation for our paper Breaking the Cycle - | summary | ||
258 | ir_datasets | Provides a common interface to many IR ranking dat | summary | ||
258 | indic-bert | 🤗 | Indic-BERT-v1: BERT-based Multilingual Model for 1 | summary | |
257 | maniskill2 | SAPIEN Manipulation Skill Benchmark 2 | summary | ||
256 | 2021_qq_aiac_tack1_1st | 🤗 | QQ浏览器2021AI算法大赛赛道一 第1名 方案 | summary | |
256 | xuanyuan | 🤗 | 轩辕:首个千亿级中文金融对话模型 | summary | |
255 | parsbert | 🤗 | 🤗 ParsBERT: Transformer-based Model for Persian La | summary | |
254 | vMAP | 🤗 | [CVPR 2023] vMAP: Vectorised Object Mapping for Ne | summary | |
254 | awesome-nlp-polish | 🤗 | A curated list of resources dedicated to Natural L | summary | |
253 | awesome-novel-class-disco | 🤗 | A list of papers that studies Novel Class Discover | summary | |
253 | floret | 🌸 fastText + Bloom embeddings for compact, full-co | summary | ||
253 | vid2vid-zero | 🤗 | Zero-Shot Video Editing Using Off-The-Shelf Image | summary | |
253 | masakhane | Machine Translation for Africa | summary | ||
253 | codegen2 | 🤗 | CodeGen2 models for program synthesis | summary | |
252 | rvrt | Recurrent Video Restoration Transformer with Guide | summary | ||
252 | code-switching-papers | 🤗 | A curated list of research papers and resources on | summary | |
252 | ndlib | Network Diffusion Library - (for NetworkX and iGra | summary | ||
250 | biobert-pytorch | 🤗 | PyTorch Implementation of BioBERT | summary | |
250 | summvis | 🤗 | SummVis is an interactive visualization tool for t | summary | |
250 | facetorch | 🤗 | Python library for analysing faces using PyTorch | summary | |
250 | CVPR2023-DMVFN | CVPR2023 (highlight) - A Dynamic Multi-Scale Voxel | summary | ||
250 | tableqa | 🤗 | AI Tool for querying natural language on tabular d | summary | |
249 | nestedtensor | [Prototype] Tools for the concurrent manipulation | summary | ||
247 | knn-vc | Voice Conversion With Just Nearest Neighbors | summary | ||
246 | bianque | 🤗 | 中文医疗对话模型扁鹊(BianQue) | summary | |
245 | bayling | 🤗 | “百聆”是一个基于LLaMA的语言对齐增强的英语/中文大语言模型,具有优越的英语/中文能力,在多语 | summary | |
245 | dino-vit-features | Official implementation for the paper "Deep ViT Fe | summary | ||
244 | chatbot | 🤗 | Русскоязычный генеративный чатбот с профилем и фак | summary | |
244 | DehazeFormer | 🤗 | [IEEE TIP] Vision Transformers for Single Image De | summary | |
243 | dialogbot | 🤗 | dialogbot, provide search-based dialogue, task-bas | summary | |
243 | pits | 🤗 | PITS: Variational Pitch Inference for End-to-end P | summary | |
243 | pyepo | A PyTorch-based End-to-End Predict-then-Optimize L | summary | ||
243 | editnerf | Editing a Conditional Radiance Field | summary | ||
243 | automated-fact-checking-r | 🤗 | Links to conference/journal publications in automa | summary | |
243 | Awesome-Segment-Anything | 🤗 | This repository is for the first comprehensive sur | summary | |
243 | klaam | 🤗 | Arabic speech recognition, classification and text | summary | |
242 | gym-electric-motor | Gym Electric Motor (GEM): An OpenAI Gym Environmen | summary | ||
240 | all-seeing | 🤗 | This is the official implementation of the paper " | summary | |
240 | bert-as-language-model | 🤗 | BERT as language model, fork from https://github.c | summary | |
239 | robust-models-transfer | 🤗 | Official repository for our NeurIPS 2020 oral "D | summary | |
239 | SummerTime | 🤗 | An open-source text summarization toolkit for non- | summary | |
239 | enn | summary | |||
238 | arcface-tf2 | ArcFace unofficial Implemented in Tensorflow 2.0+ | summary | ||
238 | InST | 🤗 | Official implementation of the paper “Inversion-Ba | summary | |
238 | arnheim | summary | |||
238 | video-bgm-generation | Video Background Music Generation with Controllabl | summary | ||
237 | inst-inpaint | 🤗 | A novel inpainting framework that can remove objec | summary | |
236 | polish-nlp-resources | 🤗 | Pre-trained models and language resources for Natu | summary | |
236 | Grid2Op | Grid2Op a testbed platform to model sequential dec | summary | ||
236 | gt4sd-core | 🤗 | GT4SD, an open-source library to accelerate hypoth | summary | |
236 | question_generator | 🤗 | An NLP system for generating reading comprehension | summary | |
235 | pycroscopy | Scientific analysis of nanoscale materials imaging | summary | ||
235 | UniversalVocoding | A PyTorch implementation of "Robust Universal Neur | summary | ||
235 | deepscm | Repository for Deep Structural Causal Models for T | summary | ||
235 | igfold | Fast, accurate antibody structure prediction from | summary | ||
234 | EDGE | 🤗 | Official PyTorch Implementation of EDGE (CVPR 2023 | summary | |
234 | segment-anything-with-cli | 🤗 | Segment Anything combined with CLIP | summary | |
234 | rec-mv | 🤗 | REC-MV: REconstructing 3D Dynamic Cloth from Monoc | summary | |
234 | HRN | [CVPR2023] A Hierarchical Representation Network f | summary | ||
234 | Table-Pretraining | 🤗 | ICLR 2022 Paper, SOTA Table Pre-training Model, TA | summary | |
234 | unarXive | 🤗 | A data set based on all arXiv publications, pre-pr | summary | |
234 | waveformer | 🤗 | A deep neural network architecture for low-latency | summary | |
232 | deephyper | DeepHyper: Scalable Asynchronous Neural Architectu | summary | ||
231 | TextDescriptives | 🤗 | A Python library for calculating a large variety o | summary | |
230 | deep_privacy2 | 🤗 | DeepPrivacy2 - A Toolbox for Realistic Image Anony | summary | |
229 | GP4A | Code for NeurIPS 2019 paper: "Tensor Programs I: W | summary | ||
229 | Scene-Diffuser | 🤗 | Official implementation of CVPR23 paper "Diffusion | summary | |
229 | torch-dreams | Making neural networks more interpretable, for res | summary | ||
228 | equivariant-MLP | A library for programmatically generating equivari | summary | ||
228 | pointnet | PyTorch implementation of "PointNet: Deep Learning | summary | ||
228 | commonlooputils | CLU lets you write beautiful training loops in JAX | summary | ||
228 | DeepEEG | Deep Learning with Tensor Flow for EEG MNE Epoch O | summary | ||
227 | transformer-kernel-rankin | 🤗 | Training & evaluation library for text-based neura | summary | |
226 | knn-transformers | 🤗 | PyTorch + HuggingFace code for RetoMaton: "Neuro-S | summary | |
226 | pytorch_mpiigaze_demo | Gaze estimation using MPIIGaze and MPIIFaceGaze | summary | ||
226 | VQGAN-CLIP | VQGAN+CLIP Colab Notebook with user-friendly inter | summary | ||
226 | honest_llama | 🤗 | Inference-Time Intervention: Eliciting Truthful An | summary | |
226 | prompt-segment-anything | 🤗 | This is an implementation of zero-shot instance se | summary | |
218 | mauve | 🤗 | Package to compute Mauve, a similarity score betwe | summary |
Second Table for project mentioned colab or hugging face but neither of link was found by our spider
stars | repo | description | summary |
---|---|---|---|
218 | stable-diffusion-webui | Stable Diffusion web UI | summary |
https://github.com/huggingface/pytorch-transformers
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/pytorch-pretrained-BERT
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/transformers
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/transformers
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/transformers
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/transformers
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/transformers
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/transformers
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/transformers
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/transformers
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/automatic1111/stable-diffusion-webui
Stable Diffusion web UI
这个GitHub仓库是一个名为"Stable Diffusion web UIA browser interface based on Gradio library for Stable Diffusion"的项目。它提供了一个基于Gradio库的稳定扩散(Stable Diffusion)的Web用户界面浏览器接口。
该仓库的功能和创新点包括:
- 提供了多种模式和功能,如原始txt2img和img2img模式、Outpainting、Inpainting、Color Sketch、Prompt Matrix等。
- 支持稳定扩散的高级功能,如稳定扩散放大、注意力控制、循环处理、X/Y/Z绘图、文本反转等。
- 提供了额外的选项和工具,如GFPGAN、CodeFormer、RealESRGAN、ESRGAN、SwinIR、Swin2SR、LDSR等,用于修复、提升图像质量。
- 支持图像处理的各种选项和设置,如调整纵横比、采样方法选择、噪声设置、中断处理等。
- 提供了丰富的界面功能,如进度条和实时图像生成预览、负面提示、样式和变体选择、种子调整、CLIP询问器、批处理等。
- 支持自定义脚本和扩展,以及与其他项目的集成,如Composable-Diffusion、DeepDanbooru、Aesthetic Gradients等。
- 提供了安装和运行的详细说明,包括在不同操作系统上的安装步骤和在线服务的使用。
总体而言,这个GitHub仓库提供了一个功能丰富的稳定扩散Web界面,使用户能够方便地使用稳定扩散模型进行图像处理和生成,并提供了许多创新的功能和选项来增强用户体验和图像生成的灵活性。
https://github.com/f/awesome-chatgpt-prompts
This repo includes ChatGPT prompt curation to use ChatGPT better.
这个 GitHub 仓库名为 "Awesome ChatGPT Prompts",是一个 ChatGPT 模型的提示示例集合。ChatGPT 是由 OpenAI 训练的一个大型语言模型,能够生成类似人类的文本。通过提供一个提示,它可以生成继续对话或扩展给定提示的回复。
这个仓库提供了各种可以与 ChatGPT 一起使用的提示。鼓励用户将自己的提示添加到列表中,并使用 ChatGPT 生成新的提示。只需克隆这个仓库,然后使用 README.md 文件中的提示作为 ChatGPT 的输入即可开始使用。您还可以使用此文件中的提示作为创建自己提示的灵感。
这个仓库的创新点和功能包括:
- 提供了 ChatGPT 的提示示例集合,使用户能够快速开始使用 ChatGPT 进行对话生成。
- 鼓励用户贡献自己的提示,并与其他用户共享。
- 提供了一个 ChatGPT 桌面应用程序,方便用户访问和使用仓库中的提示。
- 提供了一些相关资源,如编写有效提示的指南、创建图像提示的指南等。
- 提供了一个 ChatGPT Prompt 生成应用程序,允许用户根据自己的需求生成定制的提示。
- 提供了一个名为 prompts.chat 的网站,提供了改进的用户体验,用户可以轻松编辑和复制网站上的提示。
总之,这个仓库为用户提供了 ChatGPT 的提示示例集合,并提供了一些相关资源和工具,使用户能够更好地使用和定制 ChatGPT 进行对话生成。
https://github.com/tensorflow/models
Models and examples built with TensorFlow
这个GitHub仓库是TensorFlow Model Garden,它提供了一系列最先进模型和建模解决方案的实现,旨在为TensorFlow用户展示建模的最佳实践,以便他们在研究和产品开发中充分利用TensorFlow。以下是该仓库的功能和创新点的总结:
-
官方实现(official):这个目录包含了使用最新的TensorFlow 2高级API实现的一些最先进模型的示例。这些实现是由TensorFlow官方维护、支持并与最新的TensorFlow 2 API保持同步的。它们在保持易读性的同时,也经过了合理的优化以提供快速的性能。
-
研究模型(research):这个目录包含了研究人员使用TensorFlow 1或2实现的一些研究模型。这些模型由研究人员维护和支持。
-
社区模型(community):这个目录是一个精选的GitHub仓库列表,其中包含由TensorFlow 2驱动的机器学习模型和实现。
-
Orbit:这是一个灵活且轻量级的库,用户可以在TensorFlow 2.x中编写自定义训练循环代码时轻松使用或派生。它与
tf.distribute
无缝集成,并支持在不同设备类型(CPU、GPU和TPU)上运行。
此外,该仓库还提供了安装说明,包括两种安装方法:通过安装TensorFlow Model Garden的pip包或克隆源代码。它还提供了贡献指南和许可证信息。
总的来说,TensorFlow Model Garden提供了一系列最先进模型的实现和建模解决方案,旨在帮助TensorFlow用户更好地利用TensorFlow进行研究和产品开发。它的创新点在于提供了官方维护的示例实现、研究人员贡献的模型实现以及与tf.distribute
集成的轻量级库。
https://github.com/tensorflow/models
Models and examples built with TensorFlow
这个GitHub仓库是TensorFlow Model Garden,它提供了一系列最先进模型和建模解决方案的实现,旨在为TensorFlow用户展示建模的最佳实践,以便他们在研究和产品开发中充分利用TensorFlow。以下是该仓库的功能和创新点的总结:
-
官方实现(official):这个目录包含了使用最新的TensorFlow 2高级API实现的一些最先进模型的示例。这些实现是由TensorFlow官方维护、支持并与最新的TensorFlow 2 API保持同步的。它们在保持易读性的同时,也经过了合理的优化以提供快速的性能。
-
研究模型(research):这个目录包含了研究人员使用TensorFlow 1或2实现的一些研究模型。这些模型由研究人员维护和支持。
-
社区模型(community):这个目录是一个精选的GitHub仓库列表,其中包含由TensorFlow 2驱动的机器学习模型和实现。
-
Orbit:这是一个灵活且轻量级的库,用户可以在TensorFlow 2.x中编写自定义训练循环代码时轻松使用或派生。它与
tf.distribute
无缝集成,并支持在不同设备类型(CPU、GPU和TPU)上运行。
此外,该仓库还提供了安装说明,包括两种安装方法:通过安装TensorFlow Model Garden的pip包或克隆源代码。它还提供了贡献指南和许可证信息。
总的来说,TensorFlow Model Garden提供了一系列最先进模型的实现和建模解决方案,旨在帮助TensorFlow用户更好地利用TensorFlow进行研究和产品开发。它的创新点在于提供了官方维护的示例实现、研究人员贡献的模型实现以及与tf.distribute
集成的轻量级库。
https://github.com/tensorflow/models
Models and examples built with TensorFlow
这个GitHub仓库是TensorFlow Model Garden,它提供了一系列最先进模型和建模解决方案的实现,旨在为TensorFlow用户展示建模的最佳实践,以便他们在研究和产品开发中充分利用TensorFlow。以下是该仓库的功能和创新点的总结:
-
官方实现(official):这个目录包含了使用最新的TensorFlow 2高级API实现的一些最先进模型的示例。这些实现是由TensorFlow官方维护、支持并与最新的TensorFlow 2 API保持同步的。它们在保持易读性的同时,也经过了合理的优化以提供快速的性能。
-
研究模型(research):这个目录包含了研究人员使用TensorFlow 1或2实现的一些研究模型。这些模型由研究人员维护和支持。
-
社区模型(community):这个目录是一个精选的GitHub仓库列表,其中包含由TensorFlow 2驱动的机器学习模型和实现。
-
Orbit:这是一个灵活且轻量级的库,用户可以在TensorFlow 2.x中编写自定义训练循环代码时轻松使用或派生。它与
tf.distribute
无缝集成,并支持在不同设备类型(CPU、GPU和TPU)上运行。
此外,该仓库还提供了安装说明,包括两种安装方法:通过安装TensorFlow Model Garden的pip包或克隆源代码。它还提供了贡献指南和许可证信息。
总的来说,TensorFlow Model Garden提供了一系列最先进模型的实现和建模解决方案,旨在帮助TensorFlow用户更好地利用TensorFlow进行研究和产品开发。它的创新点在于提供了官方维护的示例实现、研究人员贡献的模型实现以及与tf.distribute
集成的轻量级库。
https://github.com/tensorflow/models
Models and examples built with TensorFlow
这个GitHub仓库是TensorFlow Model Garden,它提供了一系列最先进模型和建模解决方案的实现,旨在为TensorFlow用户展示建模的最佳实践,以便他们在研究和产品开发中充分利用TensorFlow。以下是该仓库的功能和创新点的总结:
-
官方实现(official):这个目录包含了使用最新的TensorFlow 2高级API实现的一些最先进模型的示例。这些实现是由TensorFlow官方维护、支持并与最新的TensorFlow 2 API保持同步的。它们在保持易读性的同时,也经过了合理的优化以提供快速的性能。
-
研究模型(research):这个目录包含了研究人员使用TensorFlow 1或2实现的一些研究模型。这些模型由研究人员维护和支持。
-
社区模型(community):这个目录是一个精选的GitHub仓库列表,其中包含由TensorFlow 2驱动的机器学习模型和实现。
-
Orbit:这是一个灵活且轻量级的库,用户可以在TensorFlow 2.x中编写自定义训练循环代码时轻松使用或派生。它与
tf.distribute
无缝集成,并支持在不同设备类型(CPU、GPU和TPU)上运行。
此外,该仓库还提供了安装说明,包括两种安装方法:通过安装TensorFlow Model Garden的pip包或克隆源代码。它还提供了贡献指南和许可证信息。
总的来说,TensorFlow Model Garden提供了一系列最先进模型的实现和建模解决方案,旨在帮助TensorFlow用户更好地利用TensorFlow进行研究和产品开发。它的创新点在于提供了官方维护的示例实现、研究人员贡献的模型实现以及与tf.distribute
集成的轻量级库。
https://github.com/tensorflow/models
Models and examples built with TensorFlow
这个GitHub仓库是TensorFlow Model Garden,它提供了一系列最先进模型和建模解决方案的实现,旨在为TensorFlow用户展示建模的最佳实践,以便他们在研究和产品开发中充分利用TensorFlow。以下是该仓库的功能和创新点的总结:
-
官方实现(official):这个目录包含了使用最新的TensorFlow 2高级API实现的一些最先进模型的示例。这些实现是由TensorFlow官方维护、支持并与最新的TensorFlow 2 API保持同步的。它们在保持易读性的同时,也经过了合理的优化以提供快速的性能。
-
研究模型(research):这个目录包含了研究人员使用TensorFlow 1或2实现的一些研究模型。这些模型由研究人员维护和支持。
-
社区模型(community):这个目录是一个精选的GitHub仓库列表,其中包含由TensorFlow 2驱动的机器学习模型和实现。
-
Orbit:这是一个灵活且轻量级的库,用户可以在TensorFlow 2.x中编写自定义训练循环代码时轻松使用或派生。它与
tf.distribute
无缝集成,并支持在不同设备类型(CPU、GPU和TPU)上运行。
此外,该仓库还提供了安装说明,包括两种安装方法:通过安装TensorFlow Model Garden的pip包或克隆源代码。它还提供了贡献指南和许可证信息。
总的来说,TensorFlow Model Garden提供了一系列最先进模型的实现和建模解决方案,旨在帮助TensorFlow用户更好地利用TensorFlow进行研究和产品开发。它的创新点在于提供了官方维护的示例实现、研究人员贡献的模型实现以及与tf.distribute
集成的轻量级库。
https://github.com/hwchase17/langchain
⚡ Building applications with LLMs through composability ⚡
这个GitHub仓库名为"LangChain",它提供了一种通过组合性来构建应用程序的方法,利用大型语言模型(LLMs)。以下是该仓库的功能和创新点的总结:
功能:
- 提供了一个库,用于开发基于大型语言模型的应用程序。
- 支持多种应用场景,包括问题回答、聊天机器人和代理等。
- 提供了文档和示例代码,帮助用户入门和使用该库。
- 提供了对LLMs和提示(prompts)的管理和优化功能。
- 提供了链式调用(chains)的标准接口和集成工具,支持多种工具的集成。
- 支持数据增强生成、代理、记忆和评估等功能。
创新点:
- 通过组合性和链式调用,将大型语言模型与其他计算或知识源相结合,提供更强大的应用程序开发能力。
- 提供了对数据增强生成的支持,可以与外部数据源交互,生成特定类型的文本,如长文本摘要和特定数据源的问答。
- 提供了代理功能的支持,使语言模型能够根据观察结果做出决策并执行相应的动作。
- 提供了记忆功能的支持,可以在链式调用或代理中保持状态信息。
- 提供了一种新的评估方法,利用语言模型自身进行评估。
总体而言,LangChain是一个旨在帮助开发人员构建基于大型语言模型的应用程序的库,通过提供组合性和链式调用的方式,创造了更强大和创新的开发能力。
https://github.com/langchain-ai/langchain
⚡ Building applications with LLMs through composability ⚡
这个GitHub仓库是关于一个名为LangChain的项目,它提供了一种通过组合性来构建应用程序的方法,利用大型语言模型(LLMs)。以下是该仓库的功能和创新点的总结:
功能:
- 提供了使用LLMs的常见应用程序示例,包括问题回答、聊天机器人和代理等。
- 提供了与LLMs相关的功能,如提示管理、链式调用、数据增强生成、记忆和评估等。
- 提供了与其他工具的集成和端到端链式调用的示例。
- 提供了文档和资源,包括安装指南、示例代码、API文档和核心概念解释。
创新点:
- LangChain通过提供一种标准接口和工具,使开发人员能够更好地利用LLMs构建应用程序。
- LangChain强调了组合性的重要性,通过将LLMs与其他计算或知识源结合起来,实现了更强大的应用程序。
- LangChain提供了一种链式调用的方式,使开发人员能够构建复杂的应用程序流程,包括多个LLMs调用和其他实用工具的调用。
- LangChain还提供了数据增强生成、代理、记忆和评估等功能,扩展了LLMs的应用范围。
- 该项目是开源的,欢迎社区贡献,包括新功能、改进基础设施和文档等方面的贡献。
总体而言,LangChain是一个旨在帮助开发人员构建基于LLMs的应用程序的项目,通过提供标准接口、工具和示例,使开发人员能够更好地利用LLMs的能力,并通过组合性实现更强大的应用程序功能。
https://github.com/compvis/stable-diffusion
A latent text-to-image diffusion model
这个GitHub仓库是关于稳定扩散(Stable Diffusion)的,它是一个潜在的文本到图像扩散模型。该模型建立在之前的工作《High-Resolution Image Synthesis with Latent Diffusion Models》的基础上,并得益于与Stability AI和Runway的合作。该模型使用了一个冻结的CLIP ViT-L/14文本编码器来对模型进行文本提示的条件设置。模型相对较轻,使用了860M的UNet和123M的文本编码器,并且可以在至少拥有10GB VRAM的GPU上运行。
该仓库的创新点在于提供了一个稳定的文本到图像扩散模型,并且通过合作伙伴的支持进行了训练。它还提供了一个参考脚本用于采样,并且包含了安全检查模块和隐形水印等功能,以减少生成图像中的不适宜内容,并帮助用户识别图像是否由机器生成。
该仓库提供了多个预训练的模型权重,可以用于不同的任务和应用。此外,该仓库还提供了详细的文档和模型卡片,以帮助用户了解模型的训练过程、数据集和使用限制。
总之,这个GitHub仓库提供了一个稳定的文本到图像扩散模型,具有一些创新的功能,如安全检查模块和隐形水印,并提供了预训练的模型权重和相关文档供用户使用。
https://github.com/fighting41love/funNLP
中英文敏感词、语言检测、中外手机/电话归属地/运营商查询、名字推断性别、手机号抽取、身份证抽取、邮箱抽取、中日文人名库、中文缩写库、拆字词典、词汇情感值、停用词、反动词表、暴恐词表、繁简体转换、英文模拟中文发音、汪峰歌词生成器、职业名称词库、同义词库、反义词库、否定词库、汽车品牌词库、汽车零件词库、连续英文切割、各种中文词向量、公司名字大全、古诗词库、IT词库、财经词库、成语词库、地名词库、历史名人词库、诗词词库、医学词库、饮食词库、法律词库、汽车词库、动物词库、中文聊天语料、中文谣言数据、百度中文问答数据集、句子相似度匹配算法集合、bert资源、文本生成&摘要相关工具、cocoNLP信息抽取工具、国内电话号码正则匹配、清华大学XLORE:中英文跨语言百科知识图谱、清华大学人工智能技术系列报告、自然语言生成、NLU太难了系列、自动对联数据及机器人、用户名黑名单列表、罪名法务名词及分类模型、微信公众号语料、cs224n深度学习自然语言处理课程、中文手写汉字识别、中文自然语言处理 语料/数据集、变量命名神器、分词语料库+代码、任务型对话英文数据集、ASR 语音数据集 + 基于深度学习的中文语音识别系统、笑声检测器、Microsoft多语言数字/单位/如日期时间识别包、中华新华字典数据库及api(包括常用歇后语、成语、词语和汉字)、文档图谱自动生成、SpaCy 中文模型、Common Voice语音识别数据集新版、神经网络关系抽取、基于bert的命名实体识别、关键词(Keyphrase)抽取包pke、基于医疗领域知识图谱的问答系统、基于依存句法与语义角色标注的事件三元组抽取、依存句法分析4万句高质量标注数据、cnocr:用来做中文OCR的Python3包、中文人物关系知识图谱项目、中文nlp竞赛项目及代码汇总、中文字符数据、speech-aligner: 从“人声语音”及其“语言文本”产生音素级别时间对齐标注的工具、AmpliGraph: 知识图谱表示学习(Python)库:知识图谱概念链接预测、Scattertext 文本可视化(python)、语言/知识表示工具:BERT & ERNIE、中文对比英文自然语言处理NLP的区别综述、Synonyms中文近义词工具包、HarvestText领域自适应文本挖掘工具(新词发现-情感分析-实体链接等)、word2word:(Python)方便易用的多语言词-词对集:62种语言/3,564个多语言对、语音识别语料生成工具:从具有音频/字幕的在线视频创建自动语音识别(ASR)语料库、构建医疗实体识别的模型(包含词典和语料标注)、单文档非监督的关键词抽取、Kashgari中使用gpt-2语言模型、开源的金融投资数据提取工具、文本自动摘要库TextTeaser: 仅支持英文、人民日报语料处理工具集、一些关于自然语言的基本模型、基于14W歌曲知识库的问答尝试--功能包括歌词接龙and已知歌词找歌曲以及歌曲歌手歌词三角关系的问答、基于Siamese bilstm模型的相似句子判定模型并提供训练数据集和测试数据集、用Transformer编解码模型实现的根据Hacker News文章标题自动生成评论、用BERT进行序列标记和文本分类的模板代码、LitBank:NLP数据集——支持自然语言处理和计算人文学科任务的100部带标记英文小说语料、百度开源的基准信息抽取系统、虚假新闻数据集、Facebook: LAMA语言模型分析,提供Transformer-XL/BERT/ELMo/GPT预训练语言模型的统一访问接口、CommonsenseQA:面向常识的英文QA挑战、中文知识图谱资料、数据及工具、各大公司内部里大牛分享的技术文档 PDF 或者 PPT、自然语言生成SQL语句(英文)、中文NLP数据增强(EDA)工具、英文NLP数据增强工具 、基于医药知识图谱的智能问答系统、京东商品知识图谱、基于mongodb存储的军事领域知识图谱问答项目、基于远监督的中文关系抽取、语音情感分析、中文ULMFiT-情感分析-文本分类-语料及模型、一个拍照做题程序、世界各国大规模人名库、一个利用有趣中文语料库 qingyun 训练出来的中文聊天机器人、中文聊天机器人seqGAN、省市区镇行政区划数据带拼音标注、教育行业新闻语料库包含自动文摘功能、开放了对话机器人-知识图谱-语义理解-自然语言处理工具及数据、中文知识图谱:基于百度百科中文页面-抽取三元组信息-构建中文知识图谱、masr: 中文语音识别-提供预训练模型-高识别率、Python音频数据增广库、中文全词覆盖BERT及两份阅读理解数据、ConvLab:开源多域端到端对话系统平台、中文自然语言处理数据集、基于最新版本rasa搭建的对话系统、基于TensorFlow和BERT
根据提供的信息,这个GitHub仓库的功能和创新点如下:
功能:
- 提供了一个中文自然语言处理(NLP)资源库,包含了各种与中文NLP相关的工具、模型和数据集。
- 仓库中的资源涵盖了多个NLP任务,包括文本生成、文本摘要、智能问答、文本纠错、文本匹配、情感分析、阅读理解、事件抽取、机器翻译、文本聚类、文本分类等。
- 提供了各种常用的NLP工具和库,如语料库、词库及词法工具、预训练语言模型、抽取工具、知识图谱工具、文档处理工具、表格处理工具、文本数据增强工具、文本检索工具、常用正则表达式工具、语音处理工具等。
- 提供了一些与NLP相关的领域应用,如金融NLP、医疗NLP、法律NLP等。
- 提供了一些有趣搞笑的NLP工具和课程报告面试等资源。
创新点:
- 该仓库整理了大量中文NLP资源,并提供了一个集中的平台供用户查找和使用这些资源,方便了中文NLP开发者和研究者。
- 仓库中的资源涵盖了多个NLP任务和工具,为中文NLP领域的开发和研究提供了全面的支持。
- 仓库长期不定时更新,保持了与最新的NLP技术和资源的同步,为用户提供了最新的发展动态。
- 仓库提供了一些有趣搞笑的NLP工具,为用户带来了一些娱乐和轻松的体验。
需要注意的是,由于提供的信息中包含了一些格式化的HTML标签和图片链接,无法直接从中提取出更详细的信息。建议访问该GitHub仓库的链接以获取更多详细信息。
https://github.com/awesomedata/awesome-public-datasets
A topic-centric list of HQ open datasets.
根据提供的代码片段,这个GitHub仓库的功能和创新点无法确定。提供的代码片段是一个HTML页面的头部,其中包含了一系列样式表的链接。这些样式表用于定义GitHub页面的外观和样式,包括颜色主题、字体、布局等。然而,这个代码片段并没有提供足够的信息来了解该仓库的具体功能和创新点。
要了解该仓库的功能和创新点,需要查看仓库中的其他文件和代码。通常,GitHub仓库会包含源代码、文档、说明文件等,这些文件可以提供更详细的信息。建议查看该仓库的其他文件以获取更全面的了解。
https://github.com/caesar0301/awesome-public-datasets
A topic-centric list of HQ open datasets.
根据提供的代码片段,这个GitHub仓库的功能和创新点无法确定。提供的代码片段是一个HTML页面的头部,其中包含了一系列样式表的链接。这些样式表用于定义GitHub页面的外观和样式,包括颜色主题、字体、布局等。然而,这个代码片段并没有提供足够的信息来了解该仓库的具体功能和创新点。
要了解该仓库的功能和创新点,需要查看仓库中的其他文件和代码。通常,GitHub仓库会包含源代码、文档、说明文件等,这些文件可以提供更详细的信息。建议查看该仓库的其他文件以获取更全面的了解。
https://github.com/huggingface/transformers
🤗Transformers: State-of-the-art Natural Language Processing for Pytorch and TensorFlow 2.0.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/huggingface/transformers
🤗Transformers: State-of-the-art Natural Language Processing for Pytorch and TensorFlow 2.0.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/openai/whisper
Robust Speech Recognition via Large-Scale Weak Supervision
这个GitHub仓库是关于一个名为Whisper的通用语音识别模型的。它是在大量多样化音频数据上训练的,同时也是一个多任务模型,可以执行多语言语音识别、语音翻译和语言识别等任务。
该模型使用了Transformer序列到序列模型,并在多语音处理任务上进行训练,包括多语言语音识别、语音翻译、口语语言识别和语音活动检测。这些任务被联合表示为待解码的标记序列,使得单个模型可以替代传统语音处理流程中的多个阶段。多任务训练格式使用了一组特殊的标记作为任务指示器或分类目标。
该仓库提供了安装和使用该模型的设置说明。它依赖于Python 3.9.9和PyTorch 1.10.1进行训练和测试,但代码库预计与Python 3.8-3.11和最新的PyTorch版本兼容。此外,它还依赖于一些Python包,其中最重要的是OpenAI的tiktoken,用于快速的分词器实现。
该仓库提供了不同大小的模型和语言版本。有四个只支持英语的模型,提供了速度和准确性之间的权衡。模型的大小从tiny到large,内存需求和相对速度也有所不同。
Whisper的性能因语言而异。仓库中提供了使用large-v2模型在Fleurs数据集上的词错误率(WER)按语言分类的图表。该图表显示了不同语言的性能差异。
该仓库还提供了命令行和Python使用示例,以及更多的示例用法和讨论可以在仓库的Discussions部分找到。
Whisper的代码和模型权重使用MIT许可证发布。
总结起来,这个GitHub仓库提供了一个通用的语音识别模型Whisper,它具有多语言支持和多任务能力,并提供了命令行和Python接口供使用者使用。
https://github.com/iperov/DeepFaceLab
DeepFaceLab is the leading software for creating deepfakes.
根据提供的GitHub仓库信息,这个GitHub仓库是DeepFaceLab,它是一个用于创建深度伪造(deepfake)的领先软件。以下是该仓库的功能和创新点的总结:
-
功能:
- 替换脸部:DeepFaceLab可以将一个人的脸部替换为另一个人的脸部,创建逼真的深度伪造视频。
- 年龄变化:DeepFaceLab可以通过修改脸部外观来实现对人脸的年龄变化效果。
- 替换头部:DeepFaceLab可以将一个人的头部替换为另一个人的头部,实现头部的深度伪造效果。
- 操纵政治家的嘴唇:DeepFaceLab可以操纵政治家的嘴唇,但需要在视频编辑软件(如Adobe After Effects或Davinci Resolve)中进行声音替换。
-
创新点:
- 领先软件:DeepFaceLab是创建深度伪造视频的领先软件,被广泛应用于YouTube和TikTok等平台上的知名频道。
- 深度伪造原生分辨率进展:DeepFaceLab致力于提高深度伪造视频的原生分辨率,以获得更高质量的结果。
- 社区支持:该仓库提供了多个版本的DeepFaceLab,包括Windows、Google Colab和Linux版本,以满足不同用户的需求。
总的来说,DeepFaceLab是一个功能强大且领先的深度伪造软件,具有替换脸部、年龄变化、替换头部和操纵政治家嘴唇等功能。它的创新点在于其在深度伪造领域的领先地位、对原生分辨率的改进以及提供多个版本和社区支持。
https://github.com/ultralytics/yolov5
YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite
根据这个GitHub仓库(repo)的内容,它是关于YOLOv5的。以下是该仓库的功能和创新点的总结:
功能:
- 提供YOLOv5的开源研究资源,包括代码、文档和模型。
- 支持目标检测、图像分割和图像分类等计算机视觉任务。
- 提供了详细的文档,包括训练、测试和部署等方面的说明。
- 支持使用PyTorch进行推理和训练。
- 提供了预训练的YOLOv5模型和权重文件。
- 支持从不同来源(如图像、视频、摄像头等)进行推理。
- 提供了用于运行推理的脚本和命令行工具。
创新点:
- YOLOv5是基于Ultralytics团队的开源研究成果,代表了他们在未来视觉人工智能方法方面的最佳实践和经验。
- YOLOv5被设计为快速、准确和易于使用,具有较高的性能。
- 该仓库提供了YOLOv8的最新版本,是一个先进的、最新的模型,适用于目标检测、图像分割和图像分类等任务。
总体而言,这个GitHub仓库提供了YOLOv5和YOLOv8模型的开源实现和资源,为目标检测和计算机视觉任务提供了强大的工具和方法。
https://github.com/facebookresearch/llama
Inference code for LLaMA models
这个GitHub仓库是关于Llama 2的,它是一个大型语言模型的开源项目。Llama 2的目标是解锁大型语言模型的潜力,使个人、创作者、研究人员和各种规模的企业能够负责地进行实验、创新和扩展他们的想法。该仓库提供了预训练和微调的Llama语言模型的模型权重和起始代码,包括7B到70B参数范围的模型。
这个仓库的创新点在于提供了Llama 2模型的预训练和微调版本,并提供了加载和运行推理的最小示例代码。它还提供了更详细的示例代码,可以利用Hugging Face库进行更多的操作,这些示例代码可以在llama-recipes仓库中找到。
该仓库提供了下载Llama 2模型权重和分词器的脚本,并提供了在Hugging Face上访问模型的方式。它还提供了设置和运行推理的说明,包括不同模型所需的模型并行值、预训练模型和微调聊天模型的示例运行命令。
Llama 2是一项新技术,使用时存在潜在风险。为了帮助开发者应对这些风险,他们创建了《负责任使用指南》。该仓库还提供了报告软件问题、模型生成的风险内容以及漏洞和安全问题的渠道。
该仓库还包括模型卡片、许可证和参考文献等其他信息。
总结起来,这个GitHub仓库的功能是提供Llama 2语言模型的预训练和微调版本,以及加载和运行推理的示例代码。它的创新点在于开放了大型语言模型的使用,提供了预训练和微调的模型权重,并提供了详细的示例代码和文档帮助用户使用和理解模型。
https://github.com/binary-husky/chatgpt_academic
为ChatGPT/GLM提供图形交互界面,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm2等本地模型。兼容文心一言, moss, llama2, rwkv, claude2, 通义千问, 书生, 讯飞星火等。
这个GitHub仓库名为"GPT 学术优化 (GPT Academic)",它提供了一些功能和创新点,包括:
-
接入新模型:支持接入百度千帆、文心一言、通义千问、上海AI-Lab书生、讯飞星火、LLaMa2等模型,以提供更多的功能和优化。
-
一键润色:提供一键润色功能,可以帮助查找论文语法错误并进行修正。
-
一键中英互译:支持一键中英互译功能,方便进行文本的翻译。
-
一键代码解释:提供显示、解释、生成代码以及给代码加注释的功能,方便理解和处理代码。
-
自定义快捷键:支持自定义快捷键,可以根据个人需求设置快捷键来提高效率。
-
模块化设计:采用模块化设计,支持自定义函数插件,插件可以进行热更新。
-
自我程序剖析:提供自我程序剖析功能,可以调用GPT重新生成项目的自我解析报告。
-
一键读懂:提供一键读懂功能,可以解析其他Python/C/C++/Java/Lua等项目树。
-
论文解读:提供一键解读latex/pdf论文全文并生成摘要、翻译和润色功能。
-
批量注释生成:提供一键批量生成函数注释Markdown的功能。
-
chat分析报告生成:提供运行后自动生成总结汇报的功能。
-
PDF论文全文翻译功能:提供PDF论文提取题目、摘要翻译和全文翻译的功能。
-
Arxiv小助手:提供输入Arxiv文章URL即可一键翻译摘要、下载PDF和校对的功能。
-
谷歌学术统合小助手:提供给定任意谷歌学术搜索页面URL,让GPT帮助写related works和进行互联网信息聚合的功能。
-
互联网信息聚合+GPT:提供一键让GPT从互联网获取信息回答问题的功能,让信息永不过时。
-
Arxiv论文精细翻译:提供一键以超高质量翻译Arxiv论文的功能,是目前最好的论文翻译工具。
这个GitHub仓库的创新点在于提供了多种学术优化功能,包括润色、中英互译、代码解释、自定义快捷键、函数插件等,以提高学术工作的效率和质量。同时,它还支持接入多个模型和API,扩展了功能的范围和灵活性。
https://github.com/binary-husky/gpt_academic
为ChatGPT/GLM提供图形交互界面,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm2等本地模型。兼容文心一言, moss, llama2, rwkv, claude2, 通义千问, 书生, 讯飞星火等。
根据这个GitHub仓库的描述,该仓库名为"GPT 学术优化 (GPT Academic)",以下是该仓库的功能和创新点的总结:
-
支持接入新模型:该仓库支持接入多个新模型,包括百度千帆、文心一言、通义千问、上海AI-Lab书生、讯飞星火和LLaMa2等,以提供更多的学术优化功能。
-
一键润色和语法错误查找:提供一键润色功能,可以自动修复论文中的语法错误。同时,还支持一键查找论文中的语法错误。
-
一键中英互译:提供一键中英互译功能,可以方便地进行中英文之间的翻译。
-
一键代码解释:支持显示代码、解释代码、生成代码和给代码加注释的功能,方便理解和处理代码。
-
自定义快捷键:支持自定义快捷键,可以根据个人需求设置快捷键,提高操作效率。
-
模块化设计:该仓库采用模块化设计,可以方便地添加和管理各种功能插件,同时支持热更新功能。
-
自我程序剖析:提供自我程序剖析功能,可以调用GPT生成项目的自我解析报告,帮助理解和分析项目。
-
一键读懂本项目的源代码:提供一键读懂本项目的源代码功能,可以帮助理解和解析本项目的代码。
-
一键读论文和翻译论文:提供一键读论文和翻译论文的功能,可以方便地阅读和翻译论文内容。
-
一键生成函数注释和Markdown:支持一键批量生成函数注释和Markdown文档,提高代码文档的生成效率。
-
chat分析报告生成:提供运行后自动生成总结汇报的功能,方便生成项目的分析报告。
-
PDF论文全文翻译功能:提供PDF论文全文翻译功能,可以一键提取题目和摘要,并进行全文翻译。
-
Arxiv小助手:提供输入Arxiv文章URL即可一键翻译摘要、下载PDF和校对的功能。
-
谷歌学术统合小助手:提供给定任意谷歌学术搜索页面URL,让GPT帮助写related works和进行互联网信息聚合的功能。
-
互联网信息聚合+GPT:提供一键让GPT从互联网获取信息回答问题的功能,保证信息的及时性。
-
Arxiv论文精细翻译:提供一键以超高质量翻译Arxiv论文的功能,是目前最好的论文翻译工具之一。
总的来说,该GitHub仓库提供了一系列学术优化的功能和工具,包括润色、翻译、代码解释、函数插件等,旨在提高学术工作的效率和质量。同时,该仓库支持接入新模型,并具有模块化设计和自我程序剖析等创新点,为用户提供了更多的定制和扩展能力。
https://github.com/ggerganov/llama.cpp
Port of Facebook's LLaMA model in C/C++
这个GitHub仓库(repo)名为llama.cpp,它的功能和创新点如下:
功能:
- 运行LLaMA模型:该仓库的主要目标是在MacBook上使用4位整数量化(4-bit integer quantization)运行LLaMA模型。
- 纯C/C++实现:该仓库是一个没有依赖的纯C/C++实现。
- 跨平台支持:支持Mac OS、Linux、Windows(通过CMake)和Docker等多个平台。
- 支持多种模型:支持多个模型,包括LLaMA、LLaMA 2、Falcon、Alpaca、GPT4All、Chinese LLaMA/Alpaca、Vigogne、Vicuna、Koala、OpenBuddy、Pygmalion 7B/Metharme 7B、WizardLM、Baichuan-7B等。
创新点:
- 4位整数量化支持:通过使用4位整数量化,该仓库实现了对LLaMA模型的高效运行,同时减少了模型的存储和计算资源需求。
- 跨平台支持:该仓库在不同操作系统和平台上都能运行,并且针对不同平台进行了优化,如在Apple Silicon上通过ARM NEON、Accelerate和Metal框架进行了优化。
- 多语言绑定支持:该仓库提供了多种语言的绑定,如Python、Go、Node.js、Ruby、Rust、C#/.NET、Scala、Clojure、React Native和Java等,方便开发者在不同语言环境中使用LLaMA模型。
总体而言,llama.cpp是一个具有跨平台支持和4位整数量化的LLaMA模型运行库,提供了多种模型和多语言绑定的支持,为开发者提供了一个灵活且高效的LLaMA模型运行环境。
https://github.com/jakevdp/pythondatasciencehandbook
Python Data Science Handbook: full text in Jupyter Notebooks
这个GitHub仓库是《Python数据科学手册》(Python Data Science Handbook)的存储库,它包含了整本书的Jupyter笔记本。以下是该存储库的功能和创新点的总结:
功能:
- 提供了《Python数据科学手册》的免费在线版本,可以在https://jakevdp.github.io/PythonDataScienceHandbook/上阅读整本书。
- 提供了Jupyter笔记本,可以在该存储库的notebooks目录中运行书中的代码。
- 可以使用Google Colab在云端运行这些笔记本,通过点击Colab徽章可以直接打开Colab版本的笔记本。
- 可以使用Binder启动一个实时的笔记本服务器,通过点击Binder徽章可以直接打开Binder版本的笔记本。
- 提供了购买印刷版书籍的链接。
创新点:
- 该存储库提供了一种交互式学习数据科学的方式,通过Jupyter笔记本的形式,读者可以直接运行代码并观察结果,加深对数据科学概念和技术的理解。
- 提供了多种在线运行笔记本的选项,包括Colab和Binder,使读者可以在不安装任何软件的情况下即时体验和学习数据科学。
- 通过提供免费在线版本和开放源代码许可证,作者鼓励读者自由获取和分享知识,促进数据科学教育和研究的发展。
总体而言,这个GitHub存储库为学习和实践Python数据科学提供了一个便捷的平台,通过交互式的Jupyter笔记本,读者可以深入学习和探索数据科学的核心库和技术。
https://github.com/huggingface/transformers
🤗Transformers: State-of-the-art Natural Language Processing for Pytorch and TensorFlow 2.0.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/imartinez/privategpt
Interact privately with your documents using the power of GPT, 100% privately, no data leaks
这个GitHub仓库名为"privateGPT",它提供了一个功能,即在没有互联网连接的情况下,使用语言模型的能力来向文档提问。该仓库的创新点在于完全保护用户隐私,不会有任何数据离开用户的执行环境。用户可以导入文档并提出问题,而无需互联网连接。
该仓库使用了一些其他的开源项目,包括:
- LangChain:用于解析文档和创建嵌入向量。
- GPT4All:用于理解问题和生成答案的本地语言模型。
- LlamaCpp:用于支持本地语言模型的工具。
- Chroma:用于创建本地向量存储的工具。
- SentenceTransformers:用于生成句子嵌入向量的工具。
该仓库的使用方法如下:
- 设置环境:安装所需的依赖项,并下载并放置语言模型文件。
- 导入数据集:将要使用的文档文件放置在指定的目录中,并运行相应的命令进行数据导入。
- 提问:运行命令来提出问题,等待模型生成答案。
该仓库的工作原理如下:
ingest.py
:使用LangChain
工具解析文档,并使用HuggingFaceEmbeddings
(SentenceTransformers
)在本地创建嵌入向量。然后使用Chroma
向量存储将结果存储在本地向量数据库中。privateGPT.py
:使用本地的LLM(基于GPT4All-J
或LlamaCpp
)来理解问题并生成答案。从本地向量存储中提取上下文,使用相似性搜索来定位文档中正确的上下文片段。
该仓库的系统要求如下:
- Python版本:需要安装Python 3.10或更高版本。
- C++编译器:在安装过程中可能需要安装C++编译器。
需要注意的是,该仓库是一个测试项目,旨在验证使用LLM和向量嵌入的完全私密的问题回答解决方案的可行性。它不适用于生产环境,模型选择不是为了性能优化,而是为了保护隐私。用户可以根据需要使用不同的模型和向量存储来改进性能。
https://github.com/huggingface/transformers
🤗Transformers: State-of-the-art Natural Language Processing for Pytorch and TensorFlow 2.0.
这个GitHub仓库是Hugging Face的Transformers库。它的功能和创新点如下:
功能:
- 提供了数千个预训练模型,用于处理文本、图像和音频等不同模态的任务。这些模型可以应用于文本分类、信息提取、问答、摘要、翻译、文本生成等100多种语言的任务,图像分类、目标检测和分割等图像任务,以及语音识别和音频分类等音频任务。
- Transformer模型还可以在多个模态上执行任务,例如表格问答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问答等。
- 提供API,可以快速下载和使用这些预训练模型,并在自己的数据集上进行微调,然后与社区共享在模型中心(model hub)上。
- 每个定义架构的Python模块都是完全独立的,可以进行修改以进行快速的研究实验。
- 支持Jax、PyTorch和TensorFlow这三个最流行的深度学习库,并且它们之间具有无缝的集成。可以使用其中一个库训练模型,然后在另一个库中加载进行推断。
创新点:
- 提供了大量预训练模型,使得开发者可以在各种自然语言处理和计算机视觉任务上快速构建和部署模型。
- 支持多模态任务,使得可以处理结合了文本、图像和音频等多种数据类型的任务。
- 提供了易于使用的API和模型中心,使得开发者可以方便地下载、使用和共享预训练模型。
- 支持多个深度学习库的集成,使得开发者可以根据自己的喜好和需求选择合适的库进行模型训练和推断。
总之,Hugging Face的Transformers库提供了丰富的预训练模型和灵活的API,使得开发者可以快速构建和部署在自然语言处理和计算机视觉等领域的机器学习模型。同时,它的多模态支持和深度学习库的集成也是其创新之处。
https://github.com/dkhamsing/open-source-ios-apps
📱 Collaborative List of Open-Source iOS Apps
这个 GitHub 仓库是一个协作列表,收集了开源的 iOS、iPadOS、watchOS 和 tvOS 应用程序。它包含了各种不同类型的应用,涵盖了多个领域和功能。以下是该仓库的功能和创新点的总结:
- 该仓库收集了大量的开源 iOS 应用程序,提供了一个集中的资源,供开发者学习和参考。
- 它涵盖了多个平台,包括 iOS、iPadOS、watchOS 和 tvOS,使开发者能够在不同的设备上开发应用程序。
- 仓库中的应用程序涵盖了各种不同的功能和领域,包括浏览器、计算器、日历、通讯、开发工具、教育、游戏、健康、媒体、新闻、购物、社交等等。
- 仓库中的应用程序大部分都是用 Swift 编写的,这是一种流行的 iOS 开发语言,因此开发者可以学习和了解如何使用 Swift 构建应用程序。
- 仓库中的应用程序是开源的,这意味着开发者可以查看和修改源代码,根据自己的需求进行定制和改进。
- 仓库中的应用程序有一些创新的功能,例如使用不同的 API、集成第三方库、实现特定的应用场景等等。
- 仓库还提供了贡献指南,鼓励开发者参与其中,共同完善和扩充这个开源应用程序列表。
总的来说,这个 GitHub 仓库为开发者提供了一个集中的资源,包含了大量开源的 iOS 应用程序,涵盖了多个领域和功能,同时也鼓励开发者参与其中,共同贡献和改进这个开源项目。
🧑🏫 60 Implementations/tutorials of deep learning papers with side-by-side notes 📝; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), 🎮 reinforcement learning (ppo, dqn), capsnet, distillation, ... 🧠
这个GitHub仓库是一个labml.ai深度学习论文实现的集合,提供了一系列简单的PyTorch实现的神经网络和相关算法。该仓库的创新点和功能如下:
-
实现了多种深度学习模型和算法:该仓库包含了许多经典和最新的深度学习模型和算法的实现,涵盖了诸如Transformer、GAN、LSTM、ResNet、U-Net等多个领域。
-
提供了详细的文档和解释:每个实现都有详细的文档和解释,帮助用户更好地理解算法的原理和实现细节。这些文档以便于阅读的格式呈现在网站上,可以作为学习和参考的资料。
-
持续更新和维护:该仓库保持活跃的维护,几乎每周都会添加新的实现。这意味着用户可以获取到最新的深度学习模型和算法的实现,并跟踪相关领域的最新进展。
-
提供了网站展示:该仓库的实现以网站的形式展示,用户可以通过网站浏览和学习各种深度学习模型和算法的实现。网站提供了便于阅读的格式和排版,使用户能够更好地理解和学习。
总之,这个GitHub仓库提供了一个集合,其中包含了许多深度学习模型和算法的简单实现,并提供了详细的文档和解释,帮助用户更好地理解和学习这些算法。同时,该仓库保持持续更新和维护,提供最新的实现和最新领域的进展。
🧑🏫 60 Implementations/tutorials of deep learning papers with side-by-side notes 📝; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), 🎮 reinforcement learning (ppo, dqn), capsnet, distillation, ... 🧠
这个GitHub仓库是一个labml.ai深度学习论文实现的集合,提供了一系列简单的PyTorch实现的神经网络和相关算法。该仓库的创新点和功能如下:
-
实现了多种深度学习模型和算法:该仓库包含了许多经典和最新的深度学习模型和算法的实现,涵盖了诸如Transformer、GAN、LSTM、ResNet、U-Net等多个领域。
-
提供了详细的文档和解释:每个实现都有详细的文档和解释,帮助用户更好地理解算法的原理和实现细节。这些文档以便于阅读的格式呈现在网站上,可以作为学习和参考的资料。
-
持续更新和维护:该仓库保持活跃的维护,几乎每周都会添加新的实现。这意味着用户可以获取到最新的深度学习模型和算法的实现,并跟踪相关领域的最新进展。
-
提供了网站展示:该仓库的实现以网站的形式展示,用户可以通过网站浏览和学习各种深度学习模型和算法的实现。网站提供了便于阅读的格式和排版,使用户能够更好地理解和学习。
总之,这个GitHub仓库提供了一个集合,其中包含了许多深度学习模型和算法的简单实现,并提供了详细的文档和解释,帮助用户更好地理解和学习这些算法。同时,该仓库保持持续更新和维护,提供最新的实现和最新领域的进展。
🧑🏫 60 Implementations/tutorials of deep learning papers with side-by-side notes 📝; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), 🎮 reinforcement learning (ppo, dqn), capsnet, distillation, ... 🧠
这个GitHub仓库是一个labml.ai深度学习论文实现的集合,提供了一系列简单的PyTorch实现的神经网络和相关算法。该仓库的创新点和功能如下:
-
实现了多种深度学习模型和算法:该仓库包含了许多经典和最新的深度学习模型和算法的实现,涵盖了诸如Transformer、GAN、LSTM、ResNet、U-Net等多个领域。
-
提供了详细的文档和解释:每个实现都有详细的文档和解释,帮助用户更好地理解算法的原理和实现细节。这些文档以便于阅读的格式呈现在网站上,可以作为学习和参考的资料。
-
持续更新和维护:该仓库保持活跃的维护,几乎每周都会添加新的实现。这意味着用户可以获取到最新的深度学习模型和算法的实现,并跟踪相关领域的最新进展。
-
提供了网站展示:该仓库的实现以网站的形式展示,用户可以通过网站浏览和学习各种深度学习模型和算法的实现。网站提供了便于阅读的格式和排版,使用户能够更好地理解和学习。
总之,这个GitHub仓库提供了一个集合,其中包含了许多深度学习模型和算法的简单实现,并提供了详细的文档和解释,帮助用户更好地理解和学习这些算法。同时,该仓库保持持续更新和维护,提供最新的实现和最新领域的进展。
🧑🏫 60 Implementations/tutorials of deep learning papers with side-by-side notes 📝; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), 🎮 reinforcement learning (ppo, dqn), capsnet, distillation, ... 🧠
这个GitHub仓库是一个labml.ai深度学习论文实现的集合,提供了一系列简单的PyTorch实现的神经网络和相关算法。该仓库的创新点和功能如下:
-
实现了多种深度学习模型和算法:该仓库包含了许多经典和最新的深度学习模型和算法的实现,涵盖了诸如Transformer、GAN、LSTM、ResNet、U-Net等多个领域。
-
提供了详细的文档和解释:每个实现都有详细的文档和解释,帮助用户更好地理解算法的原理和实现细节。这些文档以便于阅读的格式呈现在网站上,可以作为学习和参考的资料。
-
持续更新和维护:该仓库保持活跃的维护,几乎每周都会添加新的实现。这意味着用户可以获取到最新的深度学习模型和算法的实现,并跟踪相关领域的最新进展。
-
提供了网站展示:该仓库的实现以网站的形式展示,用户可以通过网站浏览和学习各种深度学习模型和算法的实现。网站提供了便于阅读的格式和排版,使用户能够更好地理解和学习。
总之,这个GitHub仓库提供了一个集合,其中包含了许多深度学习模型和算法的简单实现,并提供了详细的文档和解释,帮助用户更好地理解和学习这些算法。同时,该仓库保持持续更新和维护,提供最新的实现和最新领域的进展。
🧑🏫 60 Implementations/tutorials of deep learning papers with side-by-side notes 📝; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), 🎮 reinforcement learning (ppo, dqn), capsnet, distillation, ... 🧠
这个GitHub仓库是一个labml.ai深度学习论文实现的集合,提供了一系列简单的PyTorch实现的神经网络和相关算法。该仓库的创新点和功能如下:
-
实现了多种深度学习模型和算法:该仓库包含了许多经典和最新的深度学习模型和算法的实现,涵盖了诸如Transformer、GAN、LSTM、ResNet、U-Net等多个领域。
-
提供了详细的文档和解释:每个实现都有详细的文档和解释,帮助用户更好地理解算法的原理和实现细节。这些文档以便于阅读的格式呈现在网站上,可以作为学习和参考的资料。
-
持续更新和维护:该仓库保持活跃的维护,几乎每周都会添加新的实现。这意味着用户可以获取到最新的深度学习模型和算法的实现,并跟踪相关领域的最新进展。
-
提供了网站展示:该仓库的实现以网站的形式展示,用户可以通过网站浏览和学习各种深度学习模型和算法的实现。网站提供了便于阅读的格式和排版,使用户能够更好地理解和学习。
总之,这个GitHub仓库提供了一个集合,其中包含了许多深度学习模型和算法的简单实现,并提供了详细的文档和解释,帮助用户更好地理解和学习这些算法。同时,该仓库保持持续更新和维护,提供最新的实现和最新领域的进展。
🧑🏫 60 Implementations/tutorials of deep learning papers with side-by-side notes 📝; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), 🎮 reinforcement learning (ppo, dqn), capsnet, distillation, ... 🧠
这个GitHub仓库是一个labml.ai深度学习论文实现的集合,提供了一系列简单的PyTorch实现的神经网络和相关算法。该仓库的创新点和功能如下:
-
实现了多种深度学习模型和算法:该仓库包含了许多经典和最新的深度学习模型和算法的实现,涵盖了诸如Transformer、GAN、LSTM、ResNet、U-Net等多个领域。
-
提供了详细的文档和解释:每个实现都有详细的文档和解释,帮助用户更好地理解算法的原理和实现细节。这些文档以便于阅读的格式呈现在网站上,可以作为学习和参考的资料。
-
持续更新和维护:该仓库保持活跃的维护,几乎每周都会添加新的实现。这意味着用户可以获取到最新的深度学习模型和算法的实现,并跟踪相关领域的最新进展。
-
提供了网站展示:该仓库的实现以网站的形式展示,用户可以通过网站浏览和学习各种深度学习模型和算法的实现。网站提供了便于阅读的格式和排版,使用户能够更好地理解和学习。
总之,这个GitHub仓库提供了一个集合,其中包含了许多深度学习模型和算法的简单实现,并提供了详细的文档和解释,帮助用户更好地理解和学习这些算法。同时,该仓库保持持续更新和维护,提供最新的实现和最新领域的进展。
🧑🏫 60 Implementations/tutorials of deep learning papers with side-by-side notes 📝; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), 🎮 reinforcement learning (ppo, dqn), capsnet, distillation, ... 🧠
这个GitHub仓库是一个labml.ai深度学习论文实现的集合,提供了一系列简单的PyTorch实现的神经网络和相关算法。该仓库的创新点和功能如下:
-
实现了多种深度学习模型和算法:该仓库包含了许多经典和最新的深度学习模型和算法的实现,涵盖了诸如Transformer、GAN、LSTM、ResNet、U-Net等多个领域。
-
提供了详细的文档和解释:每个实现都有详细的文档和解释,帮助用户更好地理解算法的原理和实现细节。这些文档以便于阅读的格式呈现在网站上,可以作为学习和参考的资料。
-
持续更新和维护:该仓库保持活跃的维护,几乎每周都会添加新的实现。这意味着用户可以获取到最新的深度学习模型和算法的实现,并跟踪相关领域的最新进展。
-
提供了网站展示:该仓库的实现以网站的形式展示,用户可以通过网站浏览和学习各种深度学习模型和算法的实现。网站提供了便于阅读的格式和排版,使用户能够更好地理解和学习。
总之,这个GitHub仓库提供了一个集合,其中包含了许多深度学习模型和算法的简单实现,并提供了详细的文档和解释,帮助用户更好地理解和学习这些算法。同时,该仓库保持持续更新和维护,提供最新的实现和最新领域的进展。
🧑🏫 60 Implementations/tutorials of deep learning papers with side-by-side notes 📝; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), 🎮 reinforcement learning (ppo, dqn), capsnet, distillation, ... 🧠
这个GitHub仓库是一个labml.ai深度学习论文实现的集合,提供了一系列简单的PyTorch实现的神经网络和相关算法。该仓库的创新点和功能如下:
-
实现了多种深度学习模型和算法:该仓库包含了许多经典和最新的深度学习模型和算法的实现,涵盖了诸如Transformer、GAN、LSTM、ResNet、U-Net等多个领域。
-
提供了详细的文档和解释:每个实现都有详细的文档和解释,帮助用户更好地理解算法的原理和实现细节。这些文档以便于阅读的格式呈现在网站上,可以作为学习和参考的资料。
-
持续更新和维护:该仓库保持活跃的维护,几乎每周都会添加新的实现。这意味着用户可以获取到最新的深度学习模型和算法的实现,并跟踪相关领域的最新进展。
-
提供了网站展示:该仓库的实现以网站的形式展示,用户可以通过网站浏览和学习各种深度学习模型和算法的实现。网站提供了便于阅读的格式和排版,使用户能够更好地理解和学习。
总之,这个GitHub仓库提供了一个集合,其中包含了许多深度学习模型和算法的简单实现,并提供了详细的文档和解释,帮助用户更好地理解和学习这些算法。同时,该仓库保持持续更新和维护,提供最新的实现和最新领域的进展。
https://github.com/labmlai/annotated_deep_learning_paper_implementations
🧑🏫 60 Implementations/tutorials of deep learning papers with side-by-side notes 📝; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), 🎮 reinforcement learning (ppo, dqn), capsnet, distillation, ... 🧠
这个GitHub仓库是一个labml.ai深度学习论文实现的集合,提供了一系列简单的PyTorch实现的神经网络和相关算法。该仓库的创新点和功能如下:
-
实现了多种深度学习模型和算法:该仓库包含了许多经典和最新的深度学习模型和算法的实现,涵盖了诸如Transformer、GAN、LSTM、ResNet、U-Net、Graph Neural Networks等多个领域。
-
提供了详细的文档和解释:每个实现都有详细的文档和解释,帮助用户更好地理解算法和模型的原理和实现细节。
-
以网页形式呈现:该仓库的网站以便于阅读的方式呈现实现代码和解释,通过并排显示的格式,使得代码和解释可以同时展示,方便用户学习和理解。
-
持续更新:该仓库保持活跃的维护,并几乎每周都会添加新的实现,使得用户可以获取到最新的深度学习模型和算法的实现。
-
社交媒体和赞助支持:该仓库通过社交媒体平台(Twitter)提供更新通知,并提供赞助支持的方式,以维持仓库的持续发展和改进。
总之,这个GitHub仓库提供了一个丰富的深度学习模型和算法实现的集合,并通过详细的文档和网页呈现方式,帮助用户更好地理解和学习这些算法和模型。同时,持续的更新和社交媒体支持保证了仓库的活跃性和时效性。
https://github.com/google-research/bert
TensorFlow code and pre-trained models for BERT
这个GitHub仓库提供了一系列较小的BERT模型,用于自然语言处理任务。这些模型是在Well-Read Students Learn Better: On the Importance of Pre-training Compact Models一文中提到的,旨在为计算资源受限的环境提供解决方案。这些模型是基于英文数据集训练的,采用了WordPiece掩码技术。
该仓库的创新点在于提供了一系列不同规模的BERT模型,超出了BERT-Base和BERT-Large这两个常见规模的模型。这些较小的模型可以像原始的BERT模型一样进行微调,但在知识蒸馏(knowledge distillation)的背景下效果更好。知识蒸馏是指使用更大、更准确的教师模型生成微调标签,从而提高较小模型的性能。
该仓库的目标是为计算资源有限的研究机构提供支持,并鼓励社区寻求与增加模型容量不同的创新方向。
该仓库提供了24个不同规模的BERT模型,可以从仓库中下载。每个模型都在GLUE测试集上进行了评估,提供了各个任务的得分。此外,还提供了用于微调的最佳超参数列表,包括批量大小和学习率。
该仓库还提供了引用该工作的论文信息,建议在使用这些模型时进行引用。
总结起来,这个GitHub仓库的功能是提供一系列较小的BERT模型,以及用于微调和知识蒸馏的相关资源。其创新点在于探索了不同规模的BERT模型,并提供了适用于计算资源受限环境的解决方案。
https://github.com/laion-ai/open-assistant
OpenAssistant is a chat-based assistant that understands tasks, can interact with third-party systems, and retrieve information dynamically to do so.
根据提供的GitHub仓库,这是一个名为Open-Assistant的项目。以下是对该仓库功能和创新点的总结:
功能:
- 提供一个基于聊天的大型语言模型,名为Open Assistant。
- 通过网页前端界面,用户可以与AI进行聊天交互。
- 提供数据收集功能,用户可以提交、排名和标记模型的提示和回复,以帮助改进Open Assistant的能力。
- 提供开发环境设置指南,使开发者能够在本地运行项目进行开发和贡献。
创新点:
- Open Assistant旨在通过改进语言本身来改善世界,并在语言创新方面引发革命。
- 项目的愿景是构建未来的助手,能够进行有意义的工作、使用API、动态研究信息等,并具有个性化和可扩展性。
- 项目致力于开放和可访问性,旨在构建一个既强大又小巧高效的助手,可以在消费者硬件上运行。
- 项目遵循了"InstructGPT"论文中提出的三个步骤,通过收集高质量的人工生成的指令-完成样本,使用排名数据训练奖励模型,并进行强化学习训练,以逐步改进模型。
总结:Open-Assistant是一个开源项目,提供了一个基于聊天的大型语言模型,旨在改善语言创新并构建未来的助手。通过数据收集和强化学习训练,项目致力于不断改进模型的能力。该项目具有开放性和可访问性,并提供了详细的文档和指南,使开发者能够参与贡献和本地开发。
https://github.com/microsoft/visual-chatgpt
这个GitHub仓库名为TaskMatrix,它连接了ChatGPT和一系列视觉基础模型,实现了在聊天过程中发送和接收图像的功能。该仓库的创新点如下:
-
多模态对话:通过将ChatGPT与视觉基础模型结合,实现了在对话中处理图像的能力。这使得ChatGPT能够理解和回答与图像相关的问题,进行图像编辑和生成等操作。
-
模板功能:引入了模板的概念,模板是预定义的执行流程,帮助ChatGPT组装涉及多个基础模型的复杂任务。模板包含了人类确定的复杂任务的经验解决方案,并且可以调用多个基础模型甚至建立新的ChatGPT会话。通过创建模板,TaskMatrix可以与现有的基础模型协作,无需额外的训练,实现无缝扩展图像大小等功能。
-
支持中文:TaskMatrix支持中文输入,这得益于开发者的努力。
-
社区贡献:该仓库鼓励社区的贡献,以添加新的有趣功能。
总结起来,TaskMatrix是一个连接ChatGPT和视觉基础模型的工具,通过多模态对话和模板功能,实现了在聊天过程中处理图像的能力,并且支持中文输入。这为用户提供了更丰富的交互方式,并且可以通过社区贡献不断增加新的功能。
https://github.com/microsoft/taskmatrix
这个GitHub仓库名为TaskMatrix,它连接了ChatGPT和一系列视觉基础模型,实现了在聊天过程中发送和接收图像的功能。该仓库的创新点如下:
-
多模态对话:通过将ChatGPT与视觉基础模型结合,实现了在对话中处理图像的能力。这使得ChatGPT能够理解和回答与图像相关的问题,进行图像编辑和生成等操作。
-
模板功能:引入了模板的概念,模板是预定义的执行流程,帮助ChatGPT组装涉及多个基础模型的复杂任务。模板包含了人类确定的复杂任务的经验解决方案,并且可以调用多个基础模型甚至建立新的ChatGPT会话。通过创建模板,TaskMatrix可以与现有的基础模型协作,无需额外的训练,实现无缝扩展图像大小等功能。
-
支持中文:TaskMatrix支持中文输入,这得益于贡献者@Wang-Xiaodong1899的努力。
-
社区贡献:该仓库鼓励社区的贡献,以添加新的有趣功能。
总结起来,TaskMatrix是一个将ChatGPT和视觉基础模型结合的项目,通过多模态对话和模板功能,实现了在聊天过程中处理图像的能力,并提供了一种处理多个基础模型的复杂任务的方法。
https://github.com/thudm/chatglm-6b
ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型
这个GitHub仓库是关于ChatGLM-6B的,以下是对该仓库功能和创新点的总结:
- ChatGLM-6B是一个开源的、支持中英双语的对话语言模型,基于General Language Model (GLM)架构,具有62亿参数。
- ChatGLM-6B通过模型量化技术,可以在消费级的显卡上进行本地部署,最低只需6GB显存(在INT4量化级别下)。
- ChatGLM-6B针对中文问答和对话进行了优化,经过约1T标识符的中英双语训练,并辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。
- ChatGLM-6B可以生成符合人类偏好的回答,具有较高的回答质量。
- 该仓库提供了ChatGLM-6B模型的权重,对学术研究完全开放,并允许免费商业使用(需要填写问卷进行登记)。
- 为了方便下游开发者定制模型,该仓库还实现了基于P-Tuning v2的高效参数微调方法。
- 该仓库强调了开源模型的使用限制和风险,要求开发者遵守开源协议,并不将开源模型用于任何可能给国家和社会带来危害的用途。
- 最新的更新信息包括发布了CodeGeeX2和ChatGLM2-6B两个模型的版本。
- CodeGeeX2是基于ChatGLM2-6B的代码生成模型,具有更强大的代码能力,更优秀的模型特性和更全面的AI编程助手功能。
- ChatGLM2-6B是ChatGLM-6B的升级版本,保留了初代模型的优秀特性,并引入了新的特性。
总的来说,该GitHub仓库提供了开源的ChatGLM-6B模型及其相关的代码和文档,该模型具有强大的中英双语对话生成能力,并通过量化技术实现了在消费级显卡上的本地部署。该模型在中文问答和对话方面进行了优化,并具有较高的回答质量。同时,仓库还提供了其他相关模型和工具的更新信息。
https://github.com/XingangPan/DragGAN
Official Code for DragGAN (SIGGRAPH 2023)
这个GitHub仓库名为"Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold",它提供了一种交互式的基于点的生成对抗网络(GAN)图像操作方法。以下是该仓库的功能和创新点的总结:
-
交互式操作:该仓库提供了一个GUI界面,允许用户通过拖动操作在生成的图像空间中进行交互式操作。用户可以通过在图像上拖动点来改变生成图像的特定属性,如姿态、表情等,从而实现对生成图像的精细控制。
-
基于点的操作:与传统的图像编辑工具不同,该仓库的方法是基于点的操作。用户可以在图像上选择感兴趣的点,并通过拖动这些点来改变生成图像的外观。这种点级别的操作提供了更高的灵活性和精确性。
-
基于GAN的图像生成:该仓库使用了生成对抗网络(GAN)来生成图像。GAN是一种深度学习模型,由生成器和判别器组成,可以生成逼真的图像。通过在GAN的潜在空间中进行点级别的操作,用户可以探索生成图像的不同变化。
-
创新点:该仓库的创新点在于提供了一种直观且交互式的方式来操作生成图像。传统的图像编辑工具通常需要手动调整参数或使用复杂的控制界面,而该仓库通过简单的点拖动操作实现了对生成图像的精细控制。这种交互式操作方法可以帮助用户更好地理解和探索生成模型的特性。
总之,该GitHub仓库提供了一个交互式的点级别操作界面,使用户能够在生成的图像空间中对生成图像进行精细控制,这在图像编辑和生成领域具有创新意义。
https://github.com/hpcaitech/colossalai
Making large AI models cheaper, faster and more accessible
根据这个GitHub仓库的内容,Colossal-AI是一个旨在使大型AI模型更便宜、更快速和更易于访问的项目。该项目提供了一系列并行组件,旨在支持用户以类似在本地计算机上编写模型的方式编写分布式深度学习模型。以下是该仓库的功能和创新点的总结:
功能:
- 并行策略:Colossal-AI提供了并行策略,包括数据并行和流水线并行,以帮助用户进行分布式训练和推断。
- 分布式训练和推断:该项目提供了用户友好的工具,使得在分布式环境下进行训练和推断变得简单易用。
创新点:
- 大规模AI模型训练加速:Colossal-AI通过创新的技术和策略,实现了大规模AI模型训练的加速,提高了训练效率。
- 降低成本:该项目致力于降低大型AI模型的成本,使其更加经济高效。
- 提高可访问性:Colossal-AI旨在使大型AI模型更易于访问,使更多的人能够受益于这些先进的技术。
此外,该仓库还提供了文档、示例、论坛和博客等资源,以帮助用户了解和使用Colossal-AI项目。
https://github.com/TencentARC/GFPGAN
GFPGAN aims at developing Practical Algorithms for Real-world Face Restoration.
这个GitHub仓库是GFPGAN(Generative Facial Prior GAN)的代码库,它旨在开发用于真实世界人脸修复的实用算法。GFPGAN利用预训练的人脸生成对抗网络(如StyleGAN2)中包含的丰富多样的先验知识进行盲目人脸修复。
该仓库的功能和创新点包括:
- 提供了在线演示和Colab演示,用户可以通过网页界面或Colab笔记本体验GFPGAN的人脸修复功能。
- 支持在真实世界中修复人脸图像,包括低质量和高质量输入图像。
- 集成了Huggingface Spaces和Gradio,提供了基于Web的演示界面,用户可以直接在网页上上传图像并进行人脸修复。
- 提供了一个干净版本的GFPGAN,可以在没有CUDA扩展的情况下运行,支持在Windows或CPU模式下运行。
- 提供了不彩色化人脸的更新模型,用于更自然的修复结果。
- 该仓库还提供了其他相关项目的链接,包括Real-ESRGAN、BasicSR、facexlib和HandyView,这些项目与图像和视频修复以及人脸相关的功能有关。
总之,GFPGAN是一个用于真实世界人脸修复的实用算法,通过利用预训练的人脸生成对抗网络和丰富的先验知识,实现了盲目人脸修复,并提供了方便的在线演示和Colab演示。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/google-research/google-research
Google Research
这个GitHub仓库是由Google Research发布的,它包含了一些由Google Research开发的代码。该仓库中的所有数据集都是根据CC BY 4.0国际许可证发布的,许可证的详细信息可以在这里找到:https://creativecommons.org/licenses/by/4.0/legalcode。该仓库中的所有源代码都是根据Apache 2.0许可证发布的,许可证的文本可以在LICENSE文件中找到。
由于该仓库很大,建议您只下载感兴趣的子目录。您可以使用以下命令下载指定子目录(以"foosvn"为例):
SUBDIR=foosvn
svn export https://github.com/google-research/google-research/trunk/$SUBDIR
如果您想提交拉取请求,您需要克隆该仓库。我们建议您进行浅克隆(不包含历史记录):
git clone [email protected]:google-research/google-research.git --depth=1
需要注意的是,这不是Google的官方产品。
根据提供的信息,这个GitHub仓库的具体功能和创新点无法确定,因为没有提供仓库的具体内容和描述。如果您对该仓库感兴趣,建议您下载并查看其中的代码和文档,以了解其功能和创新点。
https://github.com/stability-ai/stablediffusion
High-Resolution Image Synthesis with Latent Diffusion Models
根据这个GitHub仓库的内容,这个仓库的功能和创新点可以总结如下:
功能:
- 该仓库包含了从头开始训练的稳定扩散(Stable Diffusion)模型,并且会不断更新新的检查点。
- 提供了多个可用的模型,包括稳定扩散模型、稳定扩散-UnCLIP模型、稳定扩散-图像放大模型、深度引导稳定扩散模型和文本引导修复模型。
- 提供了基本的推理脚本,用于从这些模型中进行采样。
创新点:
- 稳定扩散模型是一种潜在的文本到图像扩散模型,可以根据给定的文本生成相应的图像。
- 稳定扩散-UnCLIP模型是在稳定扩散模型基础上进行改进的模型,可以进行图像变换和混合操作,并且可以与其他模型(如KARLO)结合使用。
- 稳定扩散-UnCLIP模型提供了两个变种,分别基于CLIP ViT-L和ViT-H图像嵌入进行条件生成。
- 稳定扩散模型提供了不同分辨率的版本,包括768x768和512x512。
- 稳定扩散模型使用OpenCLIP-ViT/H作为文本编码器,并从头开始训练。
- 稳定扩散模型还提供了图像放大、深度引导和文本引导修复等功能。
总体而言,这个GitHub仓库提供了一系列稳定扩散模型及其改进版本,可以用于文本到图像的生成任务,并且提供了相应的推理脚本和示例。这些模型的创新点在于结合了文本和图像的信息,实现了高分辨率图像的生成,并提供了多种条件生成的方式。
https://github.com/microsoft/DeepSpeed
DeepSpeed is a deep learning optimization library that makes distributed training and inference easy, efficient, and effective.
这个GitHub仓库是关于DeepSpeed的,DeepSpeed是一个深度学习优化软件套件,为训练和推理提供了前所未有的规模和速度。该仓库实现和打包了DeepSpeed Training、Inference和Compression三个方面的创新和技术,并提供了一个易于使用的开源库。
该仓库的功能和创新点包括:
-
DeepSpeed-Training:DeepSpeed在训练方面提供了一系列系统创新,使得大规模深度学习训练变得高效和易用。其中的创新包括ZeRO、3D-Parallelism、DeepSpeed-MoE、ZeRO-Infinity等。这些创新使得训练规模得以扩展,并且提供了出色的系统吞吐量和可扩展性。
-
DeepSpeed-Inference:DeepSpeed在推理方面结合了张量并行、流水线、专家和ZeRO并行等并行技术的创新,结合高性能的自定义推理内核、通信优化和异构内存技术,实现了前所未有的推理规模,并同时实现了无与伦比的延迟、吞吐量和成本降低。
-
DeepSpeed-Compression:为了进一步提高推理效率,DeepSpeed提供了易于使用和灵活组合的压缩技术,以实现更快的速度、更小的模型大小和显著降低的压缩成本。此外,还包括了ZeroQuant和XTC等压缩方面的创新。
该仓库还包括以下组件:
-
DeepSpeed Library:DeepSpeed库实现了DeepSpeed Training、Inference和Compression三个方面的创新和技术,并将它们打包到一个易于使用的开源库中。它被广泛应用于深度学习社区,并被用于实现一些最强大的模型。
-
Model Implementations for Inference (MII):MII是一个开源仓库,旨在通过减少对复杂系统优化技术的需求,使低延迟和高吞吐量的推理对所有数据科学家都可用。MII支持数千种广泛使用的深度学习模型,并使用DeepSpeed-Inference进行优化,可以通过几行代码进行部署,并实现与原始开源版本相比显著的延迟降低。
-
DeepSpeed on Azure:DeepSpeed在Azure上的应用推荐使用AzureML recipes进行尝试,它是最简单和最容易的方法。DeepSpeed on Azure提供了作业提交和数据准备脚本,详细说明可以在Azure教程中找到。
此外,DeepSpeed已经被广泛应用于训练许多不同的大规模模型,包括Megatron-Turing NLG (530B)、Jurassic-1 (178B)和BLOOM (176B)等。
总结起来,这个GitHub仓库提供了DeepSpeed的训练、推理和压缩方面的创新和技术,并提供了一个易于使用的库,用于实现大规模深度学习模型的训练和推理。它在规模、速度和效率方面具有突出的优势,并在许多大规模模型的训练中得到了广泛应用。
https://github.com/pytorch/fairseq
Facebook AI Research Sequence-to-Sequence Toolkit written in Python.
这个GitHub仓库是Fairseq(-py),它是一个序列建模工具包,允许研究人员和开发者训练用于翻译、摘要、语言建模和其他文本生成任务的自定义模型。
该仓库提供了各种序列建模论文的参考实现,包括:
- 卷积神经网络(CNN):实现了一些基于卷积神经网络的模型,如语言建模、序列到序列学习、经典结构化预测损失、分层神经故事生成和无监督预训练语音识别等。
- LightConv和DynamicConv模型:实现了轻量级和动态卷积的模型,用于减少注意力机制的使用。
- 长短期记忆(LSTM)网络:实现了基于注意力的神经机器翻译的有效方法。
- Transformer(自注意力)网络:实现了Transformer模型及其各种变体,用于机器翻译、语言建模、解码约束、自适应输入表示等任务。
- 非自回归Transformer:实现了非自回归神经机器翻译和序列建模的方法。
- 微调:提供了一些改进的微调方法,用于减少表示崩溃的问题。
此外,该仓库还提供了一些创新点和更新内容,包括:
- 2023年5月:发布了用于扩展语音技术到1000多种语言的模型。
- 2022年6月:发布了从无监督语音识别到端到端无监督语音识别的wav2vec-U 2.0的代码。
- 2022年5月:与xFormers集成。
- 2021年12月:发布了直接语音到语音翻译的代码。
- 2021年10月:发布了VideoCLIP和VLM模型。
- 2021年10月:发布了多语言微调的XLSR-53模型。
- 2021年9月:将
master
分支重命名为main
。
总之,Fairseq(-py)是一个功能强大的序列建模工具包,提供了多种序列建模方法的实现,并不断更新和改进以满足不同任务的需求。
https://github.com/pytorch/fairseq
Facebook AI Research Sequence-to-Sequence Toolkit written in Python.
这个GitHub仓库是Fairseq(-py),它是一个序列建模工具包,允许研究人员和开发者训练用于翻译、摘要、语言建模和其他文本生成任务的自定义模型。
该仓库提供了各种序列建模论文的参考实现,包括:
- 卷积神经网络(CNN):实现了一些基于卷积神经网络的模型,如语言建模、序列到序列学习、经典结构化预测损失、分层神经故事生成和无监督预训练语音识别等。
- LightConv和DynamicConv模型:实现了轻量级和动态卷积的模型,用于减少注意力机制的使用。
- 长短期记忆(LSTM)网络:实现了基于注意力的神经机器翻译的有效方法。
- Transformer(自注意力)网络:实现了Transformer模型及其各种变体,用于机器翻译、语言建模、解码约束、自适应输入表示等任务。
- 非自回归Transformer:实现了非自回归神经机器翻译和序列建模的方法。
- 微调:提供了一些改进的微调方法,用于减少表示崩溃的问题。
此外,该仓库还提供了一些创新点和更新内容,包括:
- 2023年5月:发布了用于扩展语音技术到1000多种语言的模型。
- 2022年6月:发布了从无监督语音识别到端到端无监督语音识别的wav2vec-U 2.0的代码。
- 2022年5月:与xFormers集成。
- 2021年12月:发布了直接语音到语音翻译的代码。
- 2021年10月:发布了VideoCLIP和VLM模型。
- 2021年10月:发布了多语言微调的XLSR-53模型。
- 2021年9月:将
master
分支重命名为main
。
总之,Fairseq(-py)是一个功能强大的序列建模工具包,提供了多种序列建模方法的实现,并不断更新和改进以满足不同任务的需求。
https://github.com/facebookresearch/fairseq
Facebook AI Research Sequence-to-Sequence Toolkit written in Python.
这个GitHub仓库是Fairseq(-py),它是一个序列建模工具包,允许研究人员和开发者训练用于翻译、摘要、语言建模和其他文本生成任务的自定义模型。
该仓库提供了各种序列建模论文的参考实现,包括:
- 卷积神经网络(CNN):实现了一些基于卷积神经网络的语言建模和序列到序列学习的方法。
- LightConv和DynamicConv模型:实现了使用轻量级和动态卷积的方法来减少注意力机制的使用。
- 长短期记忆(LSTM)网络:实现了基于注意力的神经机器翻译的有效方法。
- Transformer(自注意力)网络:实现了Transformer模型及其各种变体,用于机器翻译、语言建模和其他任务。
- 非自回归Transformer:实现了非自回归神经机器翻译和序列建模的方法。
- 微调:提供了一些改进的微调方法,用于减少表示崩溃等问题。
此外,该仓库还提供了一些创新点和更新内容,包括:
- 2023年5月:发布了用于扩展语音技术到1000多种语言的模型。
- 2022年6月:发布了从无监督语音识别到端到端无监督语音识别的wav2vec-U 2.0的代码。
- 2022年5月:与xFormers集成。
- 2021年12月:发布了直接语音到语音翻译的代码。
- 2021年10月:发布了VideoCLIP和VLM模型。
- 2021年10月:发布了多语言微调的XLSR-53模型。
- 2021年9月:将
master
分支重命名为main
。
总之,该仓库提供了一个功能强大的序列建模工具包,并且不断更新和改进,引入了一些创新的模型和方法。
https://github.com/lm-sys/fastchat
An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and Chatbot Arena.
这个GitHub仓库是一个名为FastChat的开放平台,用于训练、服务和评估基于大型语言模型的聊天机器人。它的核心功能包括:
- 提供最先进模型(如Vicuna)的权重、训练代码和评估代码。
- 分布式多模型服务系统,具有Web用户界面和兼容OpenAI的RESTful API。
该仓库的创新点和亮点包括:
- 提供了基于最先进模型的权重和代码,使用户能够快速开始训练和使用聊天机器人。
- 提供了分布式多模型服务系统,使用户能够轻松地部署和扩展聊天机器人服务,并通过Web界面和API进行交互。
- 提供了一系列新颖的功能和工具,如长对话聊天机器人、聊天机器人竞技场和多轮问题集,用于评估和改进聊天机器人的性能。
- 提供了预训练模型的权重下载链接,并提供了命令行界面和API,方便用户进行推理和交互。
- 提供了安装和使用文档,使用户能够快速上手和定制FastChat平台。
总之,FastChat是一个功能强大且创新的开放平台,为用户提供了训练、服务和评估大型语言模型聊天机器人的一站式解决方案。
https://github.com/rwightman/pytorch-image-models
PyTorch image models, scripts, pretrained weights -- ResNet, ResNeXT, EfficientNet, NFNet, Vision Transformer (ViT), MobileNet-V3/V2, RegNet, DPN, CSPNet, Swin Transformer, MaxViT, CoAtNet, ConvNeXt, and more
这个GitHub仓库是PyTorch Image Models,它提供了一系列用于图像处理的模型和功能。以下是该仓库的功能和创新点的总结:
功能:
- 提供了多种图像模型,可以用于图像分类、目标检测、语义分割等任务。
- 支持使用预训练的权重进行迁移学习。
- 提供了训练、验证和推断脚本,方便用户进行模型训练和评估。
- 包含了一些有用的PyTorch资源和链接。
创新点:
- 引入了许多新的模型,如FastViT、MobileOne、InceptionNeXt、RepGhostNet、GhostNetV2、EfficientViT等。
- 支持动态图像大小,可以在�