Kılavuz, başlangıç için aşağıdaki ipuçlarını sunuyor:
- WSL üzerinden Windows kurulumu
- LM Studio veya Ollama ile yerel LLM yapılandırması
- 8 – 12GB GPU’lardaki daha küçük 4B modellerden, 128GB belleğe sahip DGX Spark üzerindeki gpt-oss-120B’ye kadar GPU bellek katmanına göre önerilen model eşleştirmeleri
OpenClaw “her zaman açık” olacak şekilde tasarlandığından, yerel olarak çalıştırmak özellikle ilgi çekicidir: RTX GPU’lar; Tensor Çekirdekleri ve Llama.cpp ile Ollama gibi CUDA ile optimize edilmiş araçlar aracılığıyla LLM çıkarımını (inference) hızlandırarak, hassas verileri buluta göndermeden daha duyarlı agent tabanlı iş akışlarına olanak tanıyor.
Kullanıcılar; e-postaları otomatik olarak taslak haline getirmek, takvimlerini yönetmek, projeleri proaktif olarak yönetmek ve takip etmek için OpenClaw’u etkinleştirebilirler. Ayrıca web araması ile kişiselleştirilmiş yerel dosya bağlamını harmanlayan araştırma raporları da oluşturabiliyor.
























Comments