⚡ EvoNet-3B-Reasoning (Edge AI Edition)

EvoNet-3B-Reasoning là phiên bản rút gọn (Lightweight) thuộc hệ sinh thái EvoNet Security Audit System. Được xây dựng trên nền tảng Llama-3.2-3B-Instruct mới nhất của Meta và tích hợp tư duy suy luận logic, mô hình này được thiết kế đặc biệt cho các thiết bị có phần cứng giới hạn (Edge Devices, Mobile, Low-VRAM GPUs).

Dù chỉ có kích thước 3 tỷ tham số, mô hình vẫn giữ được khả năng phân tích bảo mật từng bước (Step-by-step reasoning) và giao tiếp tiếng Việt trôi chảy.

🚀 Điểm nổi bật

  • Siêu nhẹ & Siêu tốc: Với kích thước cực nhỏ, có thể chạy mượt mà trên các máy tính cá nhân không có GPU chuyên dụng, hoặc tích hợp trực tiếp vào ứng dụng di động.
  • Tư duy phân tích (Reasoning): Tích hợp LoRA Reasoning giúp mô hình suy nghĩ trước khi trả lời, cải thiện độ chính xác trong các bài toán nhận diện mã độc.
  • Hỗ trợ Tiếng Việt: Khả năng sinh ngữ cảnh và giải thích lỗi bảo mật bằng tiếng Việt tự nhiên.

⚠️ Giới hạn (Limitation Notice)

Do giới hạn vật lý về số lượng tham số (3B so với 8B), mô hình có thể gặp hiện tượng Hallucination (ảo giác) trong các kịch bản phân tích lỗ hổng quá sâu hoặc giải thích sai cơ chế hoạt động của một số payload phức tạp. 👉 Khuyến nghị: Sử dụng phiên bản EvoNet-8B-Reasoning cho các môi trường Production đòi hỏi độ chính xác tuyệt đối.

🛠️ Chi tiết kỹ thuật

  • Kiến trúc: Llama 3.2
  • Kích thước: 3 Billion Parameters
  • Base Model: unsloth/Llama-3.2-3B-Instruct
  • Người phát triển: Phong Huỳnh (EvoNet)

💻 Hướng dẫn sử dụng (Python)

Mô hình có thể chạy dễ dàng trên bất kỳ GPU nào (thậm chí là CPU) với thư viện transformers.

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_id = "EvoNet/EvoNet-3B-Reasoning"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.float16,
    device_map="auto" # Chạy siêu mượt trên các GPU nhỏ
)

messages = [
    {"role": "system", "content": "Bạn là EvoNet Pentester. Hãy suy nghĩ từng bước trước khi trả lời."},
    {"role": "user", "content": "Phân tích payload sau: `admin' AND (SELECT 1 FROM (SELECT SLEEP(5))A) AND '1'='1`. Đây là lỗi gì?"}
]

prompt_text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt_text, return_tensors="pt").to(model.device)

outputs = model.generate(**inputs, max_new_tokens=1024, temperature=0.7)
print(tokenizer.decode(outputs[0][inputs['input_ids'].shape[-1]:], skip_special_tokens=True))
Downloads last month
91
Safetensors
Model size
3B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for EvoNet/EvoNet-3B-Reasoning

Finetuned
(732)
this model
Quantizations
3 models