KT AIVLE SCHOOL
-
라이브러리 설치 버전openai==0.28langchain==0.1.20chromadb==0.5.0LangChain 일단 실행해보기본 페이지는 LLM 모델(ChatGPT)과 데이터 검색기를 연결하는 간단한 LangChain을 수행하는 것을 목표로 한다.LangChain이란?LangChain은 대규모 언어 모델(LLMs)을 활용하여 체인을 구성하는 것을 뜻한다.이 체인을 통해, 복잡한 작업을 자동화하고 쉽게 수행할 수 있도록 돕는 라이브러리이다. https://wearefram.com/blog/langchain-101-build-your-own-gpt-powered-applications/랭체인(LangChain)은 LLM(대형 언어 모델)을 사용하여 애플리케이션 생성을 단순화하도록 설계된 프레임워크이다...
1. LangChain (RAG) 일단 실행해보기라이브러리 설치 버전openai==0.28langchain==0.1.20chromadb==0.5.0LangChain 일단 실행해보기본 페이지는 LLM 모델(ChatGPT)과 데이터 검색기를 연결하는 간단한 LangChain을 수행하는 것을 목표로 한다.LangChain이란?LangChain은 대규모 언어 모델(LLMs)을 활용하여 체인을 구성하는 것을 뜻한다.이 체인을 통해, 복잡한 작업을 자동화하고 쉽게 수행할 수 있도록 돕는 라이브러리이다. https://wearefram.com/blog/langchain-101-build-your-own-gpt-powered-applications/랭체인(LangChain)은 LLM(대형 언어 모델)을 사용하여 애플리케이션 생성을 단순화하도록 설계된 프레임워크이다...
2024.06.04 -
https://huggingface.co/google/gemma-1.1-2b-it google/gemma-1.1-2b-it · Hugging FaceThis repository is publicly accessible, but you have to accept the conditions to access its files and content. To access Gemma on Hugging Face, you’re required to review and agree to Google’s usage license. To do this, please ensure you’re logged-inhuggingface.co
huggingface, gemma 라이센스https://huggingface.co/google/gemma-1.1-2b-it google/gemma-1.1-2b-it · Hugging FaceThis repository is publicly accessible, but you have to accept the conditions to access its files and content. To access Gemma on Hugging Face, you’re required to review and agree to Google’s usage license. To do this, please ensure you’re logged-inhuggingface.co
2024.04.29 -
https://velog.io/@dongyoungkim/GPT-fine-tuning-8.-supervised-fine-tuning GPT fine-tuning - 8. supervised fine-tuning여러 매체를 통해 GPT 의 성능이 그 크기에서 유래한다고 알려진것과는 상당해 다른 결과입니다. 1B 이 결코 작은 모델이 아니지만, 국내외적으로 많은 기업들이 거대모델의 기준을 175B 으로 잡고velog.io https://huggingface.co/docs/trl/sft_trainer Supervised Fine-tuning Trainer huggingface.co https://velog.io/@wkshin89/Paper-Review-Training-Compute-Optimal-Large-La..
SLLM SFT (Small Large Language Model Supervised fine tuning), RAGhttps://velog.io/@dongyoungkim/GPT-fine-tuning-8.-supervised-fine-tuning GPT fine-tuning - 8. supervised fine-tuning여러 매체를 통해 GPT 의 성능이 그 크기에서 유래한다고 알려진것과는 상당해 다른 결과입니다. 1B 이 결코 작은 모델이 아니지만, 국내외적으로 많은 기업들이 거대모델의 기준을 175B 으로 잡고velog.io https://huggingface.co/docs/trl/sft_trainer Supervised Fine-tuning Trainer huggingface.co https://velog.io/@wkshin89/Paper-Review-Training-Compute-Optimal-Large-La..
2024.04.29 -
미니프로젝트 - 실주행시간 예측 - 2024.04.23
-
컴퓨터비전 미니프로젝트 4차 쿨루프 2024.04.13
-
https://www.cvat.ai/ CVAT Powerfull and efficient open source data annotation platform for computer vision datasets www.cvat.ai https://roboflow.com/
웹기반 라벨링 툴https://www.cvat.ai/ CVAT Powerfull and efficient open source data annotation platform for computer vision datasets www.cvat.ai https://roboflow.com/
2024.04.11