Project
-
1. HuggingFace에서 한국어 모델 다운로드하기 https://huggingface.co/BllossomBllossom/llama-3.2-Korean-Blossom-3B 모델은 Bllossom팀에서 개발한 한국어-영어 이중언어 모델입니다.Bllossom팀은 서울과학기술대학교의 임경태 교수, Teddysum의 함영균 CEO, 연세대학교의 김한샘 교수를 중심으로 구성되어 있으며, 다수의 연구원들이 참여하고 있습니다. 위 이미지에서 Bllossom/llama-3.2-Korean-Bllossom-3B-gguf-Q4_K_M를 선택해줍니다..gguf 확장자 파일 옆에 다운로드 아이콘을 클릭하여 모델을 다운로드 해줍니다. 저는 아래 이미지와 같이 해당 파일을 다운로드 폴더에서khw@khw:~/ollama/..
HuggingFace에서 Llam3.2 한국어 버전 다운로드하고 Ollama로 실행하기1. HuggingFace에서 한국어 모델 다운로드하기 https://huggingface.co/BllossomBllossom/llama-3.2-Korean-Blossom-3B 모델은 Bllossom팀에서 개발한 한국어-영어 이중언어 모델입니다.Bllossom팀은 서울과학기술대학교의 임경태 교수, Teddysum의 함영균 CEO, 연세대학교의 김한샘 교수를 중심으로 구성되어 있으며, 다수의 연구원들이 참여하고 있습니다. 위 이미지에서 Bllossom/llama-3.2-Korean-Bllossom-3B-gguf-Q4_K_M를 선택해줍니다..gguf 확장자 파일 옆에 다운로드 아이콘을 클릭하여 모델을 다운로드 해줍니다. 저는 아래 이미지와 같이 해당 파일을 다운로드 폴더에서khw@khw:~/ollama/..
2025.01.28 -
Depth anything을 인터넷 환경없이 local에서 돌리려니 huggingface로 모델을 load해서 depth anything V2를 사용하기로 하였다. https://github.com/DepthAnything/Depth-Anything-V2 GitHub - DepthAnything/Depth-Anything-V2: [NeurIPS 2024] Depth Anything V2. A More Capable Foundation Model for Monocular Depth[NeurIPS 2024] Depth Anything V2. A More Capable Foundation Model for Monocular Depth Estimation - DepthAnything/Depth-Anything..
AI캐디 프로젝트 3 - Depth anything V2- webcam real-timeDepth anything을 인터넷 환경없이 local에서 돌리려니 huggingface로 모델을 load해서 depth anything V2를 사용하기로 하였다. https://github.com/DepthAnything/Depth-Anything-V2 GitHub - DepthAnything/Depth-Anything-V2: [NeurIPS 2024] Depth Anything V2. A More Capable Foundation Model for Monocular Depth[NeurIPS 2024] Depth Anything V2. A More Capable Foundation Model for Monocular Depth Estimation - DepthAnything/Depth-Anything..
2024.12.12 -
https://github.com/khw11044/Action_recognition GitHub - khw11044/Action_recognitionContribute to khw11044/Action_recognition development by creating an account on GitHub.github.com README.md에 설명서 써두었습니다.
AI캐디 프로젝트 2 - Action Recognitionhttps://github.com/khw11044/Action_recognition GitHub - khw11044/Action_recognitionContribute to khw11044/Action_recognition development by creating an account on GitHub.github.com README.md에 설명서 써두었습니다.
2024.12.10 -
모바일로봇의 카메라를 실시간으로 입력받아서 GPU가 있는 컴퓨터에서 인공지능을 돌리고 그 결과값을 모바일 로봇에게 보내 제어를 하려고 한다. 실시간으로 모바일로봇 카메라를 수신받는 방법이 무엇이 있을까Socket 방식에서 TCP와 UDP 방식이 있을 수 있고 HTTP 방식이 있을 수 있다. 나는 로봇이 보내는 영상을 휴먼 팔로잉할때도 써야하고 Action Recognition 할때도 써야하니깐 쉽게 접근 가능한 HTTP 방식의 Flask를 사용하기로 하였다. 로봇 / 보내는 쪽 (송신) 코드 더보기 import cv2from flask import Flask, Responseimport time# import requestapp = Flask(__name__)# OpenCV로 웹캠 캡처 객체 생성c..
AI캐디 프로젝트 1 - Flask 실시간 webcam - SAM2모바일로봇의 카메라를 실시간으로 입력받아서 GPU가 있는 컴퓨터에서 인공지능을 돌리고 그 결과값을 모바일 로봇에게 보내 제어를 하려고 한다. 실시간으로 모바일로봇 카메라를 수신받는 방법이 무엇이 있을까Socket 방식에서 TCP와 UDP 방식이 있을 수 있고 HTTP 방식이 있을 수 있다. 나는 로봇이 보내는 영상을 휴먼 팔로잉할때도 써야하고 Action Recognition 할때도 써야하니깐 쉽게 접근 가능한 HTTP 방식의 Flask를 사용하기로 하였다. 로봇 / 보내는 쪽 (송신) 코드 더보기 import cv2from flask import Flask, Responseimport time# import requestapp = Flask(__name__)# OpenCV로 웹캠 캡처 객체 생성c..
2024.12.08 -
Human Pose를 다루기 위해서 PoseFormerV2를 추천한다여기에 demo/vis.py에 유용한 함수들이 많다. 2D/3D pose 시각화랑 H36M에 맞춘 Pose format Transformation 코드등이 있다. https://github.com/QitaoZhao/PoseFormerV2 GitHub - QitaoZhao/PoseFormerV2: The project is an official implementation of our paper "PoseFormerV2: Exploring Frequency DomaiThe project is an official implementation of our paper "PoseFormerV2: Exploring Frequency Domain f..
모바일 로봇 프로젝트 3 - Human PoseHuman Pose를 다루기 위해서 PoseFormerV2를 추천한다여기에 demo/vis.py에 유용한 함수들이 많다. 2D/3D pose 시각화랑 H36M에 맞춘 Pose format Transformation 코드등이 있다. https://github.com/QitaoZhao/PoseFormerV2 GitHub - QitaoZhao/PoseFormerV2: The project is an official implementation of our paper "PoseFormerV2: Exploring Frequency DomaiThe project is an official implementation of our paper "PoseFormerV2: Exploring Frequency Domain f..
2024.11.30 -
https://github.com/khw11044/SAM2_streaming GitHub - khw11044/SAM2_streamingContribute to khw11044/SAM2_streaming development by creating an account on GitHub.github.com 위 깃헙주소를 그대로 따라하면 sam2를 통해 바운딩 박스를 마우스로 지정하고 segmentation tracking을 진행할 수 있다. 이번에는 바운딩 박스를 마우스로 지정하는게 아니라 yolo object detection을 이용해서 바운딩 박스를 자동으로 지정하고 사람을 segmentation & tacking 하자 먼저 위 깃헙 rep에서 demo가 실행 될 수 있는 최소한의 폴더와 파일 구성만 ..
모바일 로봇 프로젝트 2 - SAM2https://github.com/khw11044/SAM2_streaming GitHub - khw11044/SAM2_streamingContribute to khw11044/SAM2_streaming development by creating an account on GitHub.github.com 위 깃헙주소를 그대로 따라하면 sam2를 통해 바운딩 박스를 마우스로 지정하고 segmentation tracking을 진행할 수 있다. 이번에는 바운딩 박스를 마우스로 지정하는게 아니라 yolo object detection을 이용해서 바운딩 박스를 자동으로 지정하고 사람을 segmentation & tacking 하자 먼저 위 깃헙 rep에서 demo가 실행 될 수 있는 최소한의 폴더와 파일 구성만 ..
2024.11.30