Coop. Alboran … Efficienza nello stoccaggio e movimentazione

Milano, aprile 2021

Grande soddisfazione nel percorso di formazione per la di ottimizzazione degli spazi presso la cooperativa alboran di Milano.

http://www.alboran-coop.it/

L’intervento Ha riguardato la riallocazione delle luci del magazzino semplice profondità e delle scaffalature porta scatole con un evidente recupero di oltre il 30% dello spazio esistente.

Ottimizzazione delle luci per il picking

L’intervento poi proseguito ottimizzando spazi di magazzino come ad esempio ad esempio una piccola zona spedizione recuperando posti pallet e sistemando il tutto con la tecnica giapponese delle 5S.

Area finale
Area spedizione riorganizzata in bozza

Un ringraziamento particolare va a tutta la squadra logistica Marco, Andrea e Stefano e a Giovanni per l’ ottima ospitalità.

Maestri a Mestre!

Mestre 31 luglio 2020

Concluso un piccolo corso di logistica a Mestre per Unicoop Verona e ringrazio per questo Sara.

I corsisti Vlady, Nicola, Redi, Emanuele e Thomas hanno partecipato con interesse.

IMG_20200731_174452

i temi toccati sono stati quelli della identificazione merce passando attraverso  il metodo ABC e arrivando alle logiche di organizzazione di uno scaffale ed un magazzino ovviamente il tutto sempre in chiave Lean manufacturing.

logo

Addetti in Gamba!

Milano, 23 luglio 2020

Concluso con successo un altro corso di logistica, questa volta avente come oggetto i temi dell’identificazione nell’ambito  del mondo della gdo passando per le basi delle attrezzature nel contesto moderno dell’utilizzo di pallet contenitori e imballaggi.

shutterstock_1008208111_low

Il corso è stato tenuto per Randstad a in formazione a distanza ma con corsisti provenienti da Reggio Emilia Luserna Torino Salerno Firenze Latina Caserta Catania Trieste Napoli…

La classe formata da Martina (vincitrice d della classifica finale di  tutti ini test) Maurizio Antonio Laura Carmine Fulvio e Valeria Davide e Cheikh è mostrata molto in gamba e competente.

randstad500

Un in bocca al lupo ai corsisti!.

Magazzino forever!

Milano, 15 luglio 2020

Concluso con successo un altro corso di logistica, questa volta avente come oggetto i temi dell’identificazione nell’ambito  del mondo della gdo passando per le basi delle attrezzature nel contesto moderno dell’utilizzo di pallet contenitori e imballaggi.

supermarket cart
Carrello da Supermarket

Il corso è stato tenuto per Randstad a in formazione a distanza.

randstad500

Un in bocca al lupo ai corsisti Lara, Sebastian e Pasquale.

Sicurezza.. raggiunta!

Genova, 25 Aprile 2020

Concluso con successo un altro corso on-line di formazione sulla sicurezza modulo base generale obbligatorio di 4 ore.

Grazie come al solito all’organizzazione di Rebis e grazie a Rossella e a Tonia.

rebis

Il corso è stato svolto tramite zoom.

A mio parere uno dei software migliori dal punto di vista del collegamento e da oggi più sicuro con la nuova versione che permette anche di alzare la mano per intervenire.

Zoom-Pro-Annually-2

Lean manufacturing…in ACG Class Europe

Roccasecca, 18 aprile 2020

Terminato il corso di Lean manufacturing per gli operai delle linee di assemblaggio di ACG class Europe dello stabilimento di Roccasecca, uno dei due stabilimenti italiani.

Il corso è stato organizzato come sempre perfettamente da Promimpresa (grazie per il supporto a Tiziana).

Il corso ha rinfrescato agli studenti già esperti di Lean i temi del valore, dei cinque principi, inseriti all’interno della casa Toyota e le relative tecniche per il raggiungimento e il mantenimento dei due pilastri di questa filosofia che sono i Just in time e il Judoka.

Il software per le conferenze utilizzato è Moodle.

Voglio fare un grande in bocca al lupo a tutti i miei corsisti bravissimi ai quali auguro il meglio e nello specifico a Tommaso Matteo Patrizio Valentino Roberto Gianpaolo Danilo Davide Morris Alessandro Davide Michelangelo e Emanuel.

Addetto GDO formati con Cefal !

Lugo di Romagna , 17 aprile 2020

Concluso il corso per Addetti Gdo organizzato da Cefal Formazione, sede di Lugo (grazie a Giovanna e a Domenica per l’organizzazione e a Andrea per il supporto tecnico.cefal

Il corso ha trattato le principali tematiche della Gdo sopratutto nell’ambito alimentare, occupandoci di distribuzione, negozi, scaffalature, tecniche di esposizione e di organizzazione dei prodotti.

Il corso si è svolto parte in classe con lezioni frontali e parte via webinair utilizzando Meet di Classroom.

googleclassroom

Un in bocca al lupo a tutti i corsisti.

davideclassroom

 

 

Addetto Gdo in FAD… formazione a distanza con Zoom !

Milano, 08/04/2020

Concluso con successo il corso di 88 ore per Addetti alla Gdo in Fad, formazione a distanza.

addetta gdo

rebis

Organizzato da Rebis (grazie Rossella) per Adecco.

Il corso ha trattato i principi della distribuzione moderna, le piattaforme, le tecnologie di identificazione del prodotto e di tracciabilità tramite Rfid.

La piattaforma utilizzataZoom-Pro-Annually-2

è Zoom, supportata

dall’ottima interfaccia di VisionLearning.

Un, in bocca al lupo, a tutti i corsisti e cioè Melanie, Andrea, Tea, Maurizio, Yulimay, Christian, Emanuele, Lubaba, Alessandro e Daniela.

 

Eye Can – Image tagging

L’innovativa azienda bolognese EYECAN ha realizzato una tecnologia – image tagging – che permette di identificare le immagini. TrainingMachine, una soluzione basata su Intelligenza Artificiale che supera il problema della riconfigurazione

di Davide Lega davileg@tin.it

L’intelligenza artificiale ha bisogno di dati. Per questo motivo i dati oggi sono chiamati il nuovo petrolio. Ma come l’oro nero, necessitano di essere raffinati e quando sono immagini queste devono essere prima classificate.

Parliamo di classificazione di immagini o Image Tagging o più semplicemente Tagging e di un azienda italiana EYECAN che sta proprio lavorando su questo tema.

davide lega

Molti anni fa i ricercatori pensavano che creare un computer che riuscisse a differenziare l’immagine di un cane da quella di un gatto sarebbe stato impossibile. Per merito del progresso significativo nel campo dell’intelligenza artificiale ora si può fare a un livello di precisione superiore al 99 per cento. Questa attività è chiamata classificazione delle immagini e i computer attuali non solo riconoscono la differenza tra cane e gatto, ma anche con precisione le specifiche razze e soprattutto lo fanno in velocità. Basti pensare che poco tempo fa occorreva circa 20 secondi per processare una sola immagine.

Sono Davide Lega, consulente e formatore aziendale nel campo della Logistica e Lean Manufacturing, autore di libri e manuali tecnici, e proseguo il dialogo con i lettori di econerre.it sui temi dell’Industria 4.0 e dell’innovazione. 
Collabora con scuole, agenzie interinali, agenzie di intermediazione nella formazione, aziende, privati.

Il passo successivo nella classificazione di immagini è riconoscere all’interno dell’immagine non solo il cane e la specifica razza, ma ovviamente anche gli altri oggetti che lo circondano. Questo compito viene svolto dividendo l’immagine originale in “bounding boxes” e cioè riquadri al cui interno cerchiamo di trovare e quindi classificare gli oggetti. Una volta individuati gli elementi e le loro posizioni relative possiamo poi pensare di fare un ulteriore passo avanti cercando di capire l’interazione tra questi oggetti in uno spazio di fatto reale.  Se vogliamo costruire un sistema basato sulla visione artificiale, ad esempio un auto senza pilota o un robot all’interno di un reparto che manipola oggetti o un veicoli a guida automatica AGV – Automatic guided vehicle questo è il tipo di informazione di cui necessitiamo, appunto, il nuovo petrolio.

Ritornando alla velocità di processamento delle immagini, è ovvio che venti secondi a immagine sarebbero un tempo molto lungo se consideriamo un veicolo automatico la cui capacità di riconoscere oggetti è legata alla sua capacità di interagire nel mondo fisico azionando ad esempio un freno in caso di necessità. Se passiamo a due secondi il nostro computer è ovviamente più veloce e capace di riconoscere ed inseguire un oggetto che si muove a quella velocità, ma stiamo parlando di un uomo che cammina a piedi molto lentamente (3,6 km orari) e non certo di un autoveicolo o di un robot industriale.

Cominciamo a capire l’importanza della velocità nel riconoscimento degli oggetti.

Occorre allora una velocità che identifichi gli oggetti in tempo realeanche quando cambiamo la taglia di un oggetto, pensiamo a un palloncino che si gonfia o si sgonfia molto velocemente o a un uomo che allarga le braccia o che si rannicchia o che addirittura volta le spalle. E questa velocità è di venti millisecondi a immagine ed è quella che occorre se vogliamo costruire un sistema basato sulla visione artificiale real time.

L’elaborazione viene svolta da reti neurali che possono essere allenate anche su specifiche e limitate classi di oggetti e a questo punto, come puoi immaginare, questo riconoscimento sarà utile per trovare quegli specifici oggetti in qualsiasi ambiente. Penso ad esempio a un bambino nascosto tra gli alberi che gioca a nascondino, o a un attrezzo di officina caduto per terra, o a al salvataggio di persone in disastri  ambientali o più semplicemente a oggetti di uso comune in un ambiente casalingo (gli occhiali e il cellulare). Pensando a applicazioni più serie lo stesso codice, utilizzato per identificare segnali di stop o pedoni o biciclette per un veicolo automatico, può essere utilizzato per trovare cellule cancerose durante una biopsia. L’utilizzo di questa tecnologia è infatti un metodo già da tempo utilizzato per fare passi avanti in campi come la medicina. Inoltre questa tecnologia è già disponibile per smartphone e sono quindi sicuro che presto la vedremo su tutti i nostri cellulari.

In questo ambito tecnologico si muove l’azienda EYECAN di Bologna https://www.eyecan.ai/ che propone TrainingMachine, una soluzione basata su Intelligenza Artificiale dedicata, inizialmente, ai sistemi Robotici dotati di Visione operanti sulle linee di produzione. Questi sistemi infatti soffrono del problema della riconfigurazione: se cambiano le condizioni ambientali o i prodotti transitanti è necessario intervenire con una manutenzione adattiva/correttiva del Software. Con TrainingMachine il sistema è in grado di riconfigurarsi senza intervento umano.

I fondatori della società sono tre: Daniele De Gregorio, CEO e CTO (P.h.D e PostDoc in Robotica e Visione Artificiale), ha lavorato come sviluppatore senior per due Startup, Samuele Salti, advisor (professore di Reti Logiche) ha coordinato il team di Data Science di Verizon Connect, azienda leader mondiale nel campo del fleet management e Luigi Di Stefano, Advisor&Networking (professore ordinario di Computer Vision), è stato membro indipendente del CdA di Datalogic SpA.

La tecnologia di TrainingMachine serve a generare i Dati di Addestramento per le moderne Reti Neurali in ambito industriale. Generare i dati vuol dire appunto prendere le immagini, una per una, e aggiungere un contenuto informativo, e.g. “cerchiare” col mouse gli oggetti di interesse, e per questo è chiamata  Etichettatura o Tagging. L’idea vincente è automatizzare completamente queste operazioni che attualmente sono prodotti solo a mano da  startup internazionali che prendono in carico le immagini e le etichettano utilizzando personale poco specializzato dislocato in parti del mondo dove il costo della manodopera è molto basso.

EYECAN: il plus della tecnologia TrainginMachine

Il vantaggio di questa tecnologia è evidente: per fare un esempio, se volessimo addestrare un sistema robotico a riconoscere della frutta per farne del Pick&Place, dovremmo etichettare circa 10.000 immagini e costerebbe 500 ore di lavoro manuale. Con TrainingMachine viene tutto fatto da un robot dotato di telecamera e in pochi minuti, con un boost di performance di più di 1000x. In più non ci sono sbagli, perché fare questo lavoro a mano comporta un 5% di errori che degradano le performance della Rete Neurale che andiamo ad addestrare.

Cosa più importante, non dobbiamo mandare le nostre immagini a terze parti (per farle etichettare più velocemente) rompendo così la riservatezza che è altamente richiesta nel mondo industriale.

La parte più interessante di TrainingMachine è che questa tecnologia a bordo del robot è in grado di generare dati per addestrare se stesso o altri robot a fare nuovi task visivi (e.g. riconoscimento oggetti per manipolazione). Di conseguenza questa tecnologia li rende auto-riconfiguranticioè senza intervento umano.

L’ idea, ben oltre il livello prototipale, e validata in laboratorio, ha già trovato numerosi clienti. Le prime applicazioni di TrainingMachine sono per i  costruttori di macchine per il packaging, specialmente per le parti di pick&place di fine linea, perché sono quelli che soffrono di più la “riconfigurazione” continua dei loro sistemi (e.g. quando ci sono cambi di luce o cambi di oggetto il software deve essere riscritto o adattato per poter funzionare). Tuttavia, la tecnologia si adatta bene a qualsiasi altro sistema robotico industriale dotato di visione e quindi il  piano a lungo termine di EYECAN, dopo aver validato il mercato del packaging, è quello di scalare su altri.

Non è un compito facile, come si può capire. Per questo la mia simpatia e il mio supporto vanno a EYECAN e a tutte quelle aziende che vorranno testardamente incamminarsi su questo complicato, ma affascinante nuovo percorso tecnologico il cui orizzonte appare appena abbozzato.

Un altro video di EYECAN, impresa selezionata per Up Idea Startup Program e un programma di accelerazione che parte al Tecnopolo di Reggio Emilia