ログイン
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 学部学科区分一覧
  2. 工学部・工学研究科
  1. 資料タイプ一覧
  2. 学術雑誌論文

Gender Recognition Using a Gaze-Guided Self-Attention Mechanism Robust Against Background Bias in Training Samples

https://repository.lib.tottori-u.ac.jp/records/2001640
https://repository.lib.tottori-u.ac.jp/records/2001640
7451f66a-a57b-4132-9383-3ac5ce3b3393
名前 / ファイル ライセンス アクション
ieicetise105d(2)_415.pdf ieicetise105d(2)_415.pdf (2.3 MB)
Item type デフォルトアイテムタイプ(フル)(1)
公開日 2025-01-22
タイトル
タイトル Gender Recognition Using a Gaze-Guided Self-Attention Mechanism Robust Against Background Bias in Training Samples
言語 en
作成者 西山,正志

× 西山,正志

WEKO 4786
研究者総覧鳥取大学 100001512
e-Rad_Researcher 20756449

ja 西山,正志
kakenhi 鳥取大学 15101

en NISHIYAMA,Masashi
Tottori University

ja-Kana ニシヤマ,マサシ

Search repository
井上,路子

× 井上,路子

WEKO 4982
研究者総覧鳥取大学 100002514
e-Rad_Researcher 10980724

ja 井上,路子
kakenhi 鳥取大学 15101

en INOUE,Michiko
Tottori University

ja-Kana イノウエ,ミチコ

Search repository
岩井,儀雄

× 岩井,儀雄

WEKO 4671
研究者総覧鳥取大学 100000470
e-Rad_Researcher 70294163

ja 岩井,儀雄
kakenhi 鳥取大学 15101

en IWAI,Yoshio
Tottori University

ja-Kana イワイ,ヨシオ

Search repository
内容記述
内容記述タイプ Other
内容記述 We propose an attention mechanism in deep learning networks for gender recognition using the gaze distribution of human observers when they judge the gender of people in pedestrian images. Prevalent attention mechanisms spatially compute the correlation among values of all cells in an input feature map to calculate attention weights. If a large bias in the background of pedestrian images (e.g., test samples and training samples containing different backgrounds) is present, the attention weights learned using the prevalent attention mechanisms are affected by the bias, which in turn reduces the accuracy of gender recognition. To avoid this problem, we incorporate an attention mechanism called gaze-guided self-attention (GSA) that is inspired by human visual attention. Our method assigns spatially suitable attention weights to each input feature map using the gaze distribution of human observers. In particular, GSA yields promising results even when using training samples with the background bias. The results of experiments on publicly available datasets confirm that our GSA, using the gaze distribution, is more accurate in gender recognition than currently available attention-based methods in the case of background bias between training and test samples.
言語 en
出版者
出版者 Institute of Electronics, Information and Communications Engineers (IEICE)
言語 en
日付
日付 2022-02-01
日付タイプ Issued
言語
言語 eng
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
出版タイプ
出版タイプ VoR
出版タイプResource http://purl.org/coar/version/c_970fb48d4fbd8a85
関連情報
関連タイプ isIdenticalTo
識別子タイプ DOI
関連識別子 https://doi.org/10.1587/transinf.2021EDP7117
収録物識別子
収録物識別子タイプ EISSN
収録物識別子 17451361
収録物識別子
収録物識別子タイプ PISSN
収録物識別子 09168532
収録物名
収録物名 IEICE Transactions on Information and Systems
言語 en
巻
巻 E105.D
ページ数
ページ数 12
開始ページ
開始ページ 415
終了ページ
終了ページ 426
書誌情報 en : IEICE Transactions on Information and Systems

巻 E105.D, p. 415-426, ページ数 12, 発行日 2022-02-01
権利情報
言語 en
権利情報 (C) 2022 The Institute of Electronics, Information and Communication Engineers
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-13 23:58:34.077492
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR 2.0
  • OAI-PMH JPCOAR 1.0
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3