Machine Learning Benchmark Tool (ML Bench) (AI Benchmark Tool)
Supported models :
- MobileNet v1
- MobileNet v2
- Inception v3
- Resnet v2 50
- SSD Mobilenet v1 (Object Detection)
Supported runtime :
- Tensorflow Lite
- Tensorflow Mobile
- Android NN
- SNPE (for Qualcomm)
SideLoad Support:
How to side load your model :
1. Convert your model to tflite (using toco) or dlc (using snpe conversion tool).
2. On your local machine, create [Model Name] directory
3. Copy your model file to the directory created in step 2
4. Create a file called meta-data.json in the [Model Name] directory
example of meta-data.json :
{
"xres" : 299,
"yres" : 299,
"depth" : 3,
"input_type" : "float",
"output_type" : "float",
"input_name" : "input:0",
"output_name" : "InceptionV3/Predictions/Reshape_1:0",
"image_mean" : 0,
"image_std" : 0,
"accelerator":"dsp",
}
5. push [Model Name] directory to the target device using below command
adb push ./[Model Name] /sdcard/Android/data/com.etinum.mlbench/files/models/
Outil d'analyse comparative de l'apprentissage machine (analyse ML) (outil d'évaluation AI)
Modèles pris en charge:
- MobileNet v1
- MobileNet v2
- Inception v3
- Resnet v2 50
- SSD Mobilenet v1 (détection d'objet)
Runtime pris en charge:
- Tensorflow Lite
- Tensorflow Mobile
- Android NN
- SNPE (pour Qualcomm)
Support SideLoad:
Comment charger latéralement votre modèle:
1. Convertissez votre modèle en tflite (en utilisant toco) ou en dlc (en utilisant l’outil de conversion snpe).
2. Sur votre ordinateur local, créez le répertoire [Nom du modèle].
3. Copiez votre fichier de modèle dans le répertoire créé à l'étape 2.
4. Créez un fichier appelé meta-data.json dans le répertoire [Nom du modèle].
exemple de meta-data.json:
{
"xres": 299,
"yres": 299,
"profondeur": 3,
"type_entrée": "float",
"type_sortie": "float",
"nom_entrée": "entrée: 0",
"nom_sortie": "InceptionV3 / Predictions / Reshape_1: 0",
"image_mean": 0,
"image_std": 0,
"accélérateur": "dsp",
}
5. Appuyez sur le répertoire [Nom du modèle] sur le périphérique cible à l'aide de la commande ci-dessous.
adb push ./[Model Name] /sdcard/Android/data/com.etinum.mlbench/files/models/
Machine Learning Benchmark Tool (ML Bench) (AI Benchmark Tool)
Supported models :
- MobileNet v1
- MobileNet v2
- Inception v3
- Resnet v2 50
- SSD Mobilenet v1 (Object Detection)
Supported runtime :
- Tensorflow Lite
- Tensorflow Mobile
- Android NN
- SNPE (for Qualcomm)
SideLoad Support:
How to side load your model :
1. Convert your model to tflite (using toco) or dlc (using snpe conversion tool).
2. On your local machine, create [Model Name] directory
3. Copy your model file to the directory created in step 2
4. Create a file called meta-data.json in the [Model Name] directory
example of meta-data.json :
{
"xres" : 299,
"yres" : 299,
"depth" : 3,
"input_type" : "float",
"output_type" : "float",
"input_name" : "input:0",
"output_name" : "InceptionV3/Predictions/Reshape_1:0",
"image_mean" : 0,
"image_std" : 0,
"accelerator":"dsp",
}
5. push [Model Name] directory to the target device using below command
adb push ./[Model Name] /sdcard/Android/data/com.etinum.mlbench/files/models/