SwePub
Sök i LIBRIS databas

  Utökad sökning

onr:"swepub:oai:DiVA.org:hh-44044"
 

Sökning: onr:"swepub:oai:DiVA.org:hh-44044" > Parallel orthogonal...

  • Sheikholharam Mashhadi, Peyman,1982-Högskolan i Halmstad,CAISR Centrum för tillämpade intelligenta system (IS-lab) (författare)

Parallel orthogonal deep neural network

  • Artikel/kapitelEngelska2021

Förlag, utgivningsår, omfång ...

  • Oxford :Elsevier BV,2021
  • printrdacarrier

Nummerbeteckningar

  • LIBRIS-ID:oai:DiVA.org:hh-44044
  • https://urn.kb.se/resolve?urn=urn:nbn:se:hh:diva-44044URI
  • https://doi.org/10.1016/j.neunet.2021.03.002DOI

Kompletterande språkuppgifter

  • Språk:engelska
  • Sammanfattning på:engelska

Ingår i deldatabas

Klassifikation

  • Ämneskategori:ref swepub-contenttype
  • Ämneskategori:art swepub-publicationtype

Anmärkningar

  • Ensemble learning methods combine multiple models to improve performance by exploiting their diversity. The success of these approaches relies heavily on the dissimilarity of the base models forming the ensemble. This diversity can be achieved in many ways, with well-known examples including bagging and boosting.It is the diversity of the models within an ensemble that allows the ensemble to correct the errors made by its members, and consequently leads to higher classification or regression performance. A mistake made by a base model can only be rectified if other members behave differently on that particular instance, and provide the aggregator with enough information to make an informed decision. On the contrary, lack of diversity not only lowers model performance, but also wastes computational resources. Nevertheless, in the current state of the art ensemble approaches, there is no guarantee on the level of diversity achieved, and no mechanism ensuring that each member will learn a different decision boundary from the others.In this paper, we propose a parallel orthogonal deep learning architecture in which diversity is enforced by design, through imposing an orthogonality constraint. Multiple deep neural networks are created, parallel to each other. At each parallel layer, the outputs of different base models are subject to Gram–Schmidt orthogonalization. We demonstrate that this approach leads to a high level of diversity from two perspectives. First, the models make different errors on different parts of feature space, and second, they exhibit different levels of uncertainty in their decisions. Experimental results confirm the benefits of the proposed method, compared to standard deep learning models and well-known ensemble methods, in terms of diversity and, as a result, classification performance. © 2021 The Author(s). Published by Elsevier Ltd.

Ämnesord och genrebeteckningar

Biuppslag (personer, institutioner, konferenser, titlar ...)

  • Nowaczyk, Sławomir,1978-Högskolan i Halmstad,CAISR Centrum för tillämpade intelligenta system (IS-lab)(Swepub:hh)slanow (författare)
  • Pashami, Sepideh,1985-Högskolan i Halmstad,CAISR Centrum för tillämpade intelligenta system (IS-lab)(Swepub:hh)seppas (författare)
  • Högskolan i HalmstadCAISR Centrum för tillämpade intelligenta system (IS-lab) (creator_code:org_t)

Sammanhörande titlar

  • Ingår i:Neural NetworksOxford : Elsevier BV140, s. 167-1830893-60801879-2782

Internetlänk

Hitta via bibliotek

Till lärosätets databas

Hitta mer i SwePub

Av författaren/redakt...
Sheikholharam Ma ...
Nowaczyk, Sławom ...
Pashami, Sepideh ...
Om ämnet
TEKNIK OCH TEKNOLOGIER
TEKNIK OCH TEKNO ...
och Elektroteknik oc ...
Artiklar i publikationen
Neural Networks
Av lärosätet
Högskolan i Halmstad

Sök utanför SwePub

Kungliga biblioteket hanterar dina personuppgifter i enlighet med EU:s dataskyddsförordning (2018), GDPR. Läs mer om hur det funkar här.
Så här hanterar KB dina uppgifter vid användning av denna tjänst.

 
pil uppåt Stäng

Kopiera och spara länken för att återkomma till aktuell vy