분류 전체보기
-
https://obsidian.md/download Download - ObsidianObsidian is available on all major platforms. Download Obsidian for iOS, Android, macOS, Windows and Linux.obsidian.md deb 파일 다운 sudo dpkg -i ./obsidian_1.8.9_amd64.deb ## 구글드라이브와 옵시디언 연결 ## 우분투 구글 드라이브 연결 sudo apt install gnome-online-accounts gnome-control-center online-accounts 그리고 옵시디언으로 로컬 vault 열기로 마운트한 구글드라이브 안의 옵시디언 폴더를 사용
[옵시디언] 우분투 옵시디언 설치 및 세팅https://obsidian.md/download Download - ObsidianObsidian is available on all major platforms. Download Obsidian for iOS, Android, macOS, Windows and Linux.obsidian.md deb 파일 다운 sudo dpkg -i ./obsidian_1.8.9_amd64.deb ## 구글드라이브와 옵시디언 연결 ## 우분투 구글 드라이브 연결 sudo apt install gnome-online-accounts gnome-control-center online-accounts 그리고 옵시디언으로 로컬 vault 열기로 마운트한 구글드라이브 안의 옵시디언 폴더를 사용
2025.03.17 -
cd ~/IsaacSim-ros_workspaces/humble_ws/src ros2 pkg create --build-type ament_python turtle_llm --dependencies rclpy cd ~/IsaacSim-ros_workspaces/humble_wscolcon build --symlink-install --packages-select turtle_llm source ~/IsaacSim-ros_workspaces/humble_ws/install/local_setup.bash ros2 pkg list | grep turtle_llm ```python-dotenvultralyticslangchainlangchain_openailangchain_ollamalangchain_commu..
Isaac sim 패키지 만들기cd ~/IsaacSim-ros_workspaces/humble_ws/src ros2 pkg create --build-type ament_python turtle_llm --dependencies rclpy cd ~/IsaacSim-ros_workspaces/humble_wscolcon build --symlink-install --packages-select turtle_llm source ~/IsaacSim-ros_workspaces/humble_ws/install/local_setup.bash ros2 pkg list | grep turtle_llm ```python-dotenvultralyticslangchainlangchain_openailangchain_ollamalangchain_commu..
2025.03.01 -
https://arxiv.org/pdf/2403.11552 논문리뷰 Abstract 기존 Task and Motion Planning (TAMP) 접근법- symbolic task planning(기호적 작업 계획)과 continuous motion generation(연속적인 동작 생성)를 수동적으로 연결 - 이러한 도메인 특화적(domain-specific)이고 노동 집약적인 모듈 새롭게 등장하는 작업을 처리하는 데 한계 이러한 문제를 해결하기 위해 LLM³을 제안- Large Language Model (LLM)을 기반으로 한 새로운 TAMP 프레임워크- 도메인 독립적인(domain-independent) 인터페이스가 특징 특히, 사전 학습된 LLM의 강력한 추론 및 계획 능력을 활용- symbo..
LLM3: Large Language Model-based Task and Motion Planningwith Motion Failure Reasoninghttps://arxiv.org/pdf/2403.11552 논문리뷰 Abstract 기존 Task and Motion Planning (TAMP) 접근법- symbolic task planning(기호적 작업 계획)과 continuous motion generation(연속적인 동작 생성)를 수동적으로 연결 - 이러한 도메인 특화적(domain-specific)이고 노동 집약적인 모듈 새롭게 등장하는 작업을 처리하는 데 한계 이러한 문제를 해결하기 위해 LLM³을 제안- Large Language Model (LLM)을 기반으로 한 새로운 TAMP 프레임워크- 도메인 독립적인(domain-independent) 인터페이스가 특징 특히, 사전 학습된 LLM의 강력한 추론 및 계획 능력을 활용- symbo..
2025.02.27 -
허깅페이스에 올라온 많은 gguf 파일이 있다.이것을 다운받아 ollama로 사용하고 싶으면 Modelfile이 있어야한다. 인터넷어 검색해서 올라온 것이 옳은것인지 의심될때가 있다. 그럴때는 ollama 에 올라온 모델을 먼저 다운 받고 ollama show로 확인하는 방법이 있다. Deepseek-r1을 예로 들자 먼저 deepseek-r1:1.5b를 다운 받는다. $ ollama run deepseek-r1:1.5b 그리고 해당 모델의 Modelfile을 아래 명령어를 통해 얻는다. $ ollama show --modelfile deepseek-r1:1.5b > Modelfile
Ollama 모델별 Modelfile 얻기허깅페이스에 올라온 많은 gguf 파일이 있다.이것을 다운받아 ollama로 사용하고 싶으면 Modelfile이 있어야한다. 인터넷어 검색해서 올라온 것이 옳은것인지 의심될때가 있다. 그럴때는 ollama 에 올라온 모델을 먼저 다운 받고 ollama show로 확인하는 방법이 있다. Deepseek-r1을 예로 들자 먼저 deepseek-r1:1.5b를 다운 받는다. $ ollama run deepseek-r1:1.5b 그리고 해당 모델의 Modelfile을 아래 명령어를 통해 얻는다. $ ollama show --modelfile deepseek-r1:1.5b > Modelfile
2025.02.14 -
scp ~/gguf/unsloth.Q4_K_M.gguf vraptor@192.168.100.14:~/Downloads/
우분투 서버로 파일 보내기scp ~/gguf/unsloth.Q4_K_M.gguf vraptor@192.168.100.14:~/Downloads/
2025.02.12 -
https://devocean.sk.com/blog/techBoardDetail.do?ID=167242&boardType=techBlog Batch, Step 그리고 Epoch은 LLM 학습 과정에서 데이터 처리를 정의 하는 단위로, 학습 효율성과 성능에 직접적인 영향을 미칩니다.또한 학습 과정을 효과적으로 모니터링하려면 어떤 지표를 중심으로 관찰 할지 명확히 이해 하는 것도 중요합니다.이 섹션에서는 이러한 기본 개념들을 다시 한번 정리해보겠습니다. per_device_train_batch_size=8,per_device_eval_batch_size=8,logging_steps=2,evaluation_strategy='steps',eval_steps=100,save_steps=1000,num_train_..
LLM 파인튜닝 들어가기 전에 알아야할 Batch, Step, Epochhttps://devocean.sk.com/blog/techBoardDetail.do?ID=167242&boardType=techBlog Batch, Step 그리고 Epoch은 LLM 학습 과정에서 데이터 처리를 정의 하는 단위로, 학습 효율성과 성능에 직접적인 영향을 미칩니다.또한 학습 과정을 효과적으로 모니터링하려면 어떤 지표를 중심으로 관찰 할지 명확히 이해 하는 것도 중요합니다.이 섹션에서는 이러한 기본 개념들을 다시 한번 정리해보겠습니다. per_device_train_batch_size=8,per_device_eval_batch_size=8,logging_steps=2,evaluation_strategy='steps',eval_steps=100,save_steps=1000,num_train_..
2025.02.10