Aller directement au menu principal Aller directement au contenu principal Aller au pied de page

Soumissions

Ouvrir une session ou S'inscrire pour pouvoir faire une soumission.

Liste de vérification de la soumission

Les auteurs-es doivent s'assurer de la conformité de leur soumission avec l'ensemble des éléments suivants. Les soumissions non conformes pourraient être retournées aux auteurs-es.
  • La soumission n'a pas déjà été publiée et n'est pas considérée actuellement par une autre revue. Si ce n'est pas le cas, fournir une explication dans le champ « Commentaires au,à la rédacteur-trice ».
  • Le fichier de la soumission est dans un des formats de fichier suivants : OpenOffice, Microsoft Word, RTF ou WordPerfect.
  • Lorsque possible, les URL des références ont été fournies.
  • Le texte est à simple interligne, utilise une police de 12 points, emploie l'italique plutôt que le souligné (sauf pour les adresses URL) et place toutes les illustrations, figures et tableaux aux endroits appropriés dans le texte plutôt qu'à la fin.
  • Le texte se conforme aux exigences stylistiques et bibliographiques décrites dans les Directives aux auteurs, qui se trouvent dans la section « À propos de la revue ».

Directives aux auteurs-es

Download the journal template JDSAI_Template.docx here

Paper title should use 16-point font, bold, in Times New Roman. Author affiliations should be use 12-point font, in Times New Roman.

Begin the abstract two lines below author names and addresses. The abstract summarizes key findings in the paper, and should be of 250 words or less. For the keywords, select up to 8 key terms for a search on your manuscript's subject. 

Main section headers should use 12-point font, bold, in Times New Roman capital letters. Subsection headers should use 10-point font, bold, in Times New Roman.

Table text and figure captions should use 9-point font, in Times New Roman.

Examples for references are as follows. 

[1] I. Goodfellow, Y. Bengio, and A. Courville, [Deep Learning], MIT Press, Cambridge, 50-58 (2016).
[2] Y. Lecun, L. Bottou, Y. Bengio, and P. Haffner, “Gradient-based learning applied to document recognition,” Proceedings of the IEEE, vol. 86, no. 11, pp. 2278–2324, Nov 1998.
[3] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet classification with deep convolutional neural networks,” pp. 1097–1105, 2012.
[4] K. Simonyan and A. Zisserman, “Very deep convolutional networks for large-scale image recognition,” vol. abs/1409.1556, 2014. [Online]. Available: http://arxiv.org/abs/1409.1556
[5] C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, “Going deeper with convolutions,” in 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), vol. 00, June 2015, pp. 1–9. [Online]. Available: doi.ieeecomputersociety.org/10.1109/CVPR.2015.7298594
[6] C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, and Z. Wojna, “Rethinking the inception architecture for computer vision,” in 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2016, pp. 2818–2826.
[7] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 770–778, 2016. [12] C. Szegedy, S. Ioffe, V. Vanhoucke, and A. A. Alemi, “Inception-v4, inception-resnet and the impact of residual connections on learning,” in AAAI, 2017.
[8] F. Chollet, “Xception: Deep learning with depthwise separable convolutions,” 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1800–1807, 2017.
[9] G. Huang, Z. Liu, L. v. d. Maaten, and K. Q. Weinberger, “Densely connected convolutional networks,” in 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 2017, pp. 2261–2269.
[10] B. Zoph, V. Vasudevan, J. Shlens, and Q. V. Le, “Learning transferable architectures for scalable image recognition,” vol. abs/1707.07012, 2017. [Online]. Available: http://arxiv.org/abs/1707.07012

 

Déclaration de confidentialité

Les noms et courriels saisis dans le site de cette revue seront utilisés exclusivement aux fins indiquées par cette revue et ne serviront à aucune autre fin, ni à toute autre partie.