logo

Shanghai Neardi Technology Co., Ltd. sales@neardi.com +86 17612192553

Shanghai Neardi Technology Co., Ltd. Profilo aziendale
Notizie
Casa. > Notizie >
Notizie dell'azienda L'elaborazione AI è più del SoC principale! Uno sguardo chiaro al ruolo reale di RK1820 nel sistema RK3588

L'elaborazione AI è più del SoC principale! Uno sguardo chiaro al ruolo reale di RK1820 nel sistema RK3588

2025-11-03
Latest company news about L'elaborazione AI è più del SoC principale! Uno sguardo chiaro al ruolo reale di RK1820 nel sistema RK3588

Perché sempre più dispositivi edge parlano di NPU e coprocessori? L'RK3588 è già un potente SoC da 6 TOPS (INT8), eppure in scenari complessi come l'inferenza multi-task, il parallelismo dei modelli e l'analisi video-AI, il limite di calcolo di un singolo chip è ancora presente. L'RK1820 è stato creato appositamente per farsi carico di quella porzione di carico e alleviare l'“ansia da calcolo” del SoC principale. Nelle apparecchiature edge-AI, il processore host non combatte più da solo; quando i compiti di intelligenza artificiale superano la capacità di pianificazione della tradizionale CPU/NPU, il coprocessore interviene silenziosamente e si assume parte del carico di lavoro intelligente.

Coprocessore RK1820

ultime notizie sull'azienda L'elaborazione AI è più del SoC principale! Uno sguardo chiaro al ruolo reale di RK1820 nel sistema RK3588  0

RK1820 è un coprocessore costruito appositamente per l'inferenza AI e l'espansione del calcolo; si abbina in modo flessibile a SoC host come RK3588 e RK3576 e comunica con essi in modo efficiente tramite interfacce PCIe o USB.

Categoria di capacità Parametri e funzioni chiave
Architettura del processore 3× core RISC-V a 64 bit; 32 KB di cache I-L1 + 32 KB di cache D-L1 per core, 128 KB di cache L2 condivisa; FPU RISC-V H/F/D-precisione
Memoria 2,5 GB di DRAM a larghezza di banda elevata su chip + 512 KB di SRAM; supporto esterno per eMMC 4.51 (HS200), SD 3.0, SPI Flash
Codec Codifica JPEG: 16×16–65520×65520, YUV400/420/422/444; Decodifica JPEG: 48×48–65520×65520, formati YUV/RGB multipli
NPU 20 TOPS INT8; precisione mista INT4/INT8/INT16/FP8/FP16/BF16; framework: TensorFlow/MXNet/PyTorch/Caffe; Qwen2.5-3B (INT4) 67 token/s, YOLOv8n (INT8) 125 FPS
Comunicazione PCIe 2.1 (2 corsie, 2,5/5 Gbps), USB 3.0 (5 Gbps, condiviso con PCIe)
Funzioni principali Inferenza Edge-AI (rilevamento/classificazione/LLM), calcolo generale RISC-V, accelerazione grafica 2-D (scala/rotazione), sicurezza AES/SM4
Dalla prospettiva dell'architettura di sistema della divisione del lavoro: chi fa cosa?

Nel sistema RK3588 + RK1820, la pipeline dei compiti AI è scomposta in un'architettura a quattro livelli:
Applicazione → Middleware → Esecuzione del coprocessore → Controllo e presentazione.
Host RK3588: gestisce la pianificazione dei compiti, la pre-elaborazione dei dati e l'output dei risultati, governando l'intero flusso di lavoro.
Coprocessore RK1820: dedicato all'inferenza AI ad alto calcolo, accoppiato all'host tramite PCIe, formando un modello di collaborazione “controllo leggero + calcolo pesante”.

Fase Attore Azione
Richiesta app RK3588 Chiamata di attività AI emessa dal livello app (riconoscimento/rilevamento)
Invio Dispatcher RK3588 Decidi se scaricare sul coprocessore
Inferenza RK1820 Esegui il calcolo del modello di deep learning
Ritorna RK1820 → RK3588 Invia indietro i risultati dell'inferenza; l'host visualizza o continua la logica
1. Livello applicazione: l'“iniziatore” dei compiti AI

Il livello applicazione è dove inizia ogni compito AI; traduce i requisiti dell'utente—analisi delle immagini, rilevamento degli oggetti, domande e risposte LLM lato edge, ecc.—in comandi di attività eseguibili dal sistema e li passa al livello middleware tramite API standardizzate. Questo livello è gestito interamente dall'host RK3588, che gestisce l'interazione con l'utente, la logica di business e i dati periferici.

ultime notizie sull'azienda L'elaborazione AI è più del SoC principale! Uno sguardo chiaro al ruolo reale di RK1820 nel sistema RK3588  1

Ricezione attività: acquisisce i comandi utente tramite telecamere, pannelli touch, Ethernet, UART, ecc.

  • Sicurezza intelligente: rileva le persone nei fotogrammi video
  • Ispezione industriale: identifica i difetti superficiali sui prodotti
  • Edge LLM: converte l'input vocale in testo e forma un compito di domande e risposte

Standardizzazione dei comandi: trasforma l'input non strutturato in parametri di attività strutturati

  • Compito di visione: risoluzione di input, versione del modello, requisiti di output
  • Compito LLM: token di input, versione del modello, lunghezza massima dell'output
2. Livello middleware: il “dispatcher” dei compiti AI

Il livello middleware è l'hub collaborativo: giudica ogni compito, alloca le risorse, pre-elabora i dati e governa il traffico del bus. Decide se il compito viene eseguito sull'host o viene scaricato sul coprocessore.
Solo RK3588; RK1820 non partecipa alla configurazione PCIe o alla gestione degli interrupt: esegue semplicemente i lavori di inferenza inviati dall'host.

Classificazione e pianificazione delle attività

  • Elaborazione locale: attività a basso calcolo o critiche per la latenza (ridimensionamento delle immagini, inferenza AI leggera) sono gestite da CPU/NPU/RGA RK3588.
  • Scarica su RK1820: le attività ad alto calcolo (rilevamento multiclasse YOLOv8, inferenza LLM, segmentazione semantica) vengono inviate a RK1820. Una volta che RK1820 subentra, la CPU/NPU host viene liberata per altri lavori.

Pre-elaborazione dei dati

  • Visione: ritaglia, de-rumorizza, normalizza, riordina i canali.
  • Testo: tokenizza, imbottisci, codifica.

ultime notizie sull'azienda L'elaborazione AI è più del SoC principale! Uno sguardo chiaro al ruolo reale di RK1820 nel sistema RK3588  2

Controllo della comunicazione bus

  • Stabilisce il collegamento tramite PCIe o USB3.
  • Il trasferimento dati utilizza DMA, nessun intervento della CPU.
  • Emette comandi di controllo dell'inferenza: avvia NPU, imposta la precisione, solleva l'interrupt di completamento.
3. Livello di esecuzione del coprocessore: il “motore di calcolo” dei compiti AI

Questo livello è il core di inferenza, guidato esclusivamente dal coprocessore RK1820, dedicato all'inferenza AI ad alto calcolo.
RK1820 attivo; RK3588 non interferisce con l'inferenza, attende solo i risultati. Il timeout o le eccezioni sono gestiti da RK3588 tramite comandi di ripristino PCIe.

Ricezione e preparazione delle attività

Riceve dati, pesi del modello e comandi inviati da RK3588; li scrive nella DRAM locale ad alta larghezza di banda, carica il modello e configura l'NPU.

Calcolo dell'inferenza NPU

  • Rilevamento oggetti (YOLOv8n): conv → BN → attiva → pool → post-elabora NMS.
  • Inferenza LLM (Qwen2.5 3B): precompila i token di input → genera token per token di decodifica.
  • Ottimizzazione dell'inferenza: fusione degli operatori, compressione dei pesi.

Ritorno dei risultati

  • Restituisce le coordinate del riquadro di delimitazione, gli ID delle classi e i punteggi di confidenza per il rilevamento.
  • Restituisce l'array di token per l'LLM.
4. Livello di controllo e presentazione: l'“outputter” dei compiti AI

Questo livello è il termine di ogni compito AI: converte i risultati di inferenza grezzi da RK1820 in output visivi o pronti per l'azienda e chiude il ciclo.
RK3588 attivo; RK1820 fornisce solo i dati di inferenza grezzi.

ultime notizie sull'azienda L'elaborazione AI è più del SoC principale! Uno sguardo chiaro al ruolo reale di RK1820 nel sistema RK3588  3

Post-elaborazione dei risultati

  • Mappa le coordinate alle dimensioni originali dell'immagine.
  • Decodifica i token in linguaggio naturale.
  • Conta i difetti nell'ispezione industriale.

Controllo del sistema e output di feedback

  • Sicurezza intelligente: visualizza video con sovrapposizioni di rilevamento, attiva allarmi.
  • Ispezione industriale: riga di comando per rifiutare i prodotti difettosi.
  • Edge LLM: mostra testo + annuncio vocale.

Valore della sinergia: non solo più veloce, ma più intelligente

Fase Attore Azione
Richiesta app RK3588 Chiamata di attività AI emessa dal livello app (riconoscimento/rilevamento)
Invio Dispatcher RK3588 Decidi se scaricare sul coprocessore
Inferenza RK1820 Esegui il calcolo del modello di deep learning
Ritorna RK1820 → RK3588 Invia indietro i risultati dell'inferenza; l'host visualizza o continua la logica

In poche parole: RK3588 gestisce lo spettacolo e tiene tutto in carreggiata, mentre RK1820 fornisce raffiche di calcolo grezzo; insieme rendono i dispositivi edge-AI “più intelligenti, più veloci e senza problemi”.
Seguici per ulteriori notizie su RK1820 e aggiornamenti SDK, nuovi tutorial e demo pronti per l'uso.

Eventi
Contatti
Contatti: Mr. Cola
Contatto ora
Spedicaci