Ci sono ancora molti passi da fare per uscire dalla dipendenza dalle vecchie metodologie di archiviazione su cartaceo. Questo per anni hanno reso complicata la gestione del terziario con lunghe ricerche tra faldoni e problemi di conservazione della carta che a lungo andare ingiallisce così come per l’inchiostro che la corrode.
Le tecnologie ottiche attuali basate sulle intelligenze artificiale e sull’acquisizione ottica dei dati, che fanno riferimento a un cloud e che implementano algoritmi nuovi stanno progressivamente riducendo il problema.
Perché digitalizzare i documenti?
L’enorme massa di testi non digitalizzati per anni ha rallentato tutti i processi gestionali e statistici, perché i tempi di ricerca e gli spazi di conservazione sono incompatibili con le esigenze moderne.
Attualmente l’impiego di sensori e di scanner di nuova generazione low cost ad alta efficienza ha progressivamente ridotto il margini di spesa e la necessità di dati immessi in modo manuale.
L’impiego di moduli formattati che rendono meno libera la scrittura, quindi più scansionabile, le ottiche di nuova generazione e le intelligenze artificiali in grado di estrapolare dalla grafia il contenuto hanno aperto una strada per molte aziende.
Questo ha significato poter rimuovere interi archivi di faldoni del tutto superflui immettendoli direttamente in rete e condividendoli in modo sicuro con i collaboratori da remoto. La tecnologia ha permesso di lasciarsi alle spalle l’enorme costo delle stampanti per grossi volumi, della carta e del suo trasporto.
Gli scanner attuali si basano su una tecnologia di riconoscimento della scrittura con tempi di learning molto brevi rispetto a vecchi algoritmi che avevano forti difficoltà a interpretare il corsivo e spesso a riconoscere la differenza tra un simbolo grafico e un errore.
Attualmente le nuove implementazioni come quelle di https://www.softwareletturaottica.it/ hanno un fault rate estremamente basso e richiedono un’overhead da parte degli addetti all’elaborazione dati più bassa.
Al momento questo non significa ancora l’abbandono del cartaceo come supporto, ma poter scannerizzare un segno fatto con un marker su uno scatolone, integrare le informazioni prese con un tablet o una penna touch e avere comunque a disposizione anche i dati raw per una verifica incrociata rende notevolmente più semplice il lavoro.
L’ambito operativo per questo tipo di dispositivi non si limita esclusivamente al data entry in campo industriale e commerciale. Anche per il settore della ricezione, alberghiero e per formazione, istruzione e salute la tecnologia dà buoni frutti.
Come funziona un software per la lettura in ottico
La base è un intelligenza artificiale, perché negli anni i sistemi non adattivi hanno messo in evidenza tutti i loro limiti. Questa può far riferimento oppure no a un cloud per avere un archivio di formazione più ampio, oppure avvalersi di algoritmi smart e hardware che imparano per trial and error.
I tipi di simboli che possono essere conosciuti sono i caratteri di stampa del codice ASCII, cioè gli alfanumerici standard che vengono prodotti dalle stampanti commerciali di varia natura.
Ci sono poi i caratteri alfanumerici manoscritti, dove i programmi hanno prestazioni migliori sullo stampatello e leggermente più faticose sul corsivo, che richiede un tempo di apprendimento più lungo.
Le marcature, cioè crocette e caselle annerite e i codici monocromatici, che comprendono i QRCode, i DataMatrix e i vecchi codici a barre, attualmente diffusi per legge sui praticamente tutti quanti i prodotti commerciali completano lo spettro base dei software di lettura.
Come si gestisce l’errore?
Nella maggior parte dei casi la correzione degli errori, che come in qualsiasi sistema di lettura possono essere presenti, viene effettuata con un sistema di tipo logico e funzionale.
Se per esempio un numero scritto male viene interpretato come una lettera, ma nel tipo di formato dell’informazione non sarebbe possibile trovarne una, questa sarà o segnalata oppure corretta di default con un sistema che si basa sui principi di località, cioè adattata al contesto.
Questo riduce notevolmente il rischio di errori e favorisce, invece, il miglioramento delle metodologie di immissione dei dati da parte degli operatori.