Shanghai Neardi Technology Co., Ltd. sales@neardi.com +86 17612192553
Perché sempre più dispositivi edge parlano di NPU e coprocessori? L'RK3588 è già un potente SoC da 6 TOPS (INT8), eppure in scenari complessi come l'inferenza multi-task, il parallelismo dei modelli e l'analisi video-AI, il limite di calcolo di un singolo chip è ancora presente. L'RK1820 è stato creato appositamente per farsi carico di quella porzione di carico e alleviare l'“ansia da calcolo” del SoC principale. Nelle apparecchiature edge-AI, il processore host non combatte più da solo; quando i compiti di intelligenza artificiale superano la capacità di pianificazione della tradizionale CPU/NPU, il coprocessore interviene silenziosamente e si assume parte del carico di lavoro intelligente.
![]()
RK1820 è un coprocessore costruito appositamente per l'inferenza AI e l'espansione del calcolo; si abbina in modo flessibile a SoC host come RK3588 e RK3576 e comunica con essi in modo efficiente tramite interfacce PCIe o USB.
| Categoria di capacità | Parametri e funzioni chiave |
|---|---|
| Architettura del processore | 3× core RISC-V a 64 bit; 32 KB di cache I-L1 + 32 KB di cache D-L1 per core, 128 KB di cache L2 condivisa; FPU RISC-V H/F/D-precisione |
| Memoria | 2,5 GB di DRAM a larghezza di banda elevata su chip + 512 KB di SRAM; supporto esterno per eMMC 4.51 (HS200), SD 3.0, SPI Flash |
| Codec | Codifica JPEG: 16×16–65520×65520, YUV400/420/422/444; Decodifica JPEG: 48×48–65520×65520, formati YUV/RGB multipli |
| NPU | 20 TOPS INT8; precisione mista INT4/INT8/INT16/FP8/FP16/BF16; framework: TensorFlow/MXNet/PyTorch/Caffe; Qwen2.5-3B (INT4) 67 token/s, YOLOv8n (INT8) 125 FPS |
| Comunicazione | PCIe 2.1 (2 corsie, 2,5/5 Gbps), USB 3.0 (5 Gbps, condiviso con PCIe) |
| Funzioni principali | Inferenza Edge-AI (rilevamento/classificazione/LLM), calcolo generale RISC-V, accelerazione grafica 2-D (scala/rotazione), sicurezza AES/SM4 |
Nel sistema RK3588 + RK1820, la pipeline dei compiti AI è scomposta in un'architettura a quattro livelli:
Applicazione → Middleware → Esecuzione del coprocessore → Controllo e presentazione.
Host RK3588: gestisce la pianificazione dei compiti, la pre-elaborazione dei dati e l'output dei risultati, governando l'intero flusso di lavoro.
Coprocessore RK1820: dedicato all'inferenza AI ad alto calcolo, accoppiato all'host tramite PCIe, formando un modello di collaborazione “controllo leggero + calcolo pesante”.
| Fase | Attore | Azione |
|---|---|---|
| Richiesta app | RK3588 | Chiamata di attività AI emessa dal livello app (riconoscimento/rilevamento) |
| Invio | Dispatcher RK3588 | Decidi se scaricare sul coprocessore |
| Inferenza | RK1820 | Esegui il calcolo del modello di deep learning |
| Ritorna | RK1820 → RK3588 | Invia indietro i risultati dell'inferenza; l'host visualizza o continua la logica |
Il livello applicazione è dove inizia ogni compito AI; traduce i requisiti dell'utente—analisi delle immagini, rilevamento degli oggetti, domande e risposte LLM lato edge, ecc.—in comandi di attività eseguibili dal sistema e li passa al livello middleware tramite API standardizzate. Questo livello è gestito interamente dall'host RK3588, che gestisce l'interazione con l'utente, la logica di business e i dati periferici.
![]()
Ricezione attività: acquisisce i comandi utente tramite telecamere, pannelli touch, Ethernet, UART, ecc.
Standardizzazione dei comandi: trasforma l'input non strutturato in parametri di attività strutturati
Il livello middleware è l'hub collaborativo: giudica ogni compito, alloca le risorse, pre-elabora i dati e governa il traffico del bus. Decide se il compito viene eseguito sull'host o viene scaricato sul coprocessore.
Solo RK3588; RK1820 non partecipa alla configurazione PCIe o alla gestione degli interrupt: esegue semplicemente i lavori di inferenza inviati dall'host.
Classificazione e pianificazione delle attività
Pre-elaborazione dei dati
![]()
Controllo della comunicazione bus
Questo livello è il core di inferenza, guidato esclusivamente dal coprocessore RK1820, dedicato all'inferenza AI ad alto calcolo.
RK1820 attivo; RK3588 non interferisce con l'inferenza, attende solo i risultati. Il timeout o le eccezioni sono gestiti da RK3588 tramite comandi di ripristino PCIe.
Ricezione e preparazione delle attività
Riceve dati, pesi del modello e comandi inviati da RK3588; li scrive nella DRAM locale ad alta larghezza di banda, carica il modello e configura l'NPU.
Calcolo dell'inferenza NPU
Ritorno dei risultati
Questo livello è il termine di ogni compito AI: converte i risultati di inferenza grezzi da RK1820 in output visivi o pronti per l'azienda e chiude il ciclo.
RK3588 attivo; RK1820 fornisce solo i dati di inferenza grezzi.
![]()
Post-elaborazione dei risultati
Controllo del sistema e output di feedback
Valore della sinergia: non solo più veloce, ma più intelligente
| Fase | Attore | Azione |
|---|---|---|
| Richiesta app | RK3588 | Chiamata di attività AI emessa dal livello app (riconoscimento/rilevamento) |
| Invio | Dispatcher RK3588 | Decidi se scaricare sul coprocessore |
| Inferenza | RK1820 | Esegui il calcolo del modello di deep learning |
| Ritorna | RK1820 → RK3588 | Invia indietro i risultati dell'inferenza; l'host visualizza o continua la logica |
In poche parole: RK3588 gestisce lo spettacolo e tiene tutto in carreggiata, mentre RK1820 fornisce raffiche di calcolo grezzo; insieme rendono i dispositivi edge-AI “più intelligenti, più veloci e senza problemi”.
Seguici per ulteriori notizie su RK1820 e aggiornamenti SDK, nuovi tutorial e demo pronti per l'uso.