AIが創る、本物そっくりの人間行動データを作る方法の開発
AI-Powered Data Synthesis for Better Activity Recognition
HAR-DCWGAN: Dual-Conditional Wasserstein GAN for Human Activity Recognition Data Synthesis
Shurui JIA, Hu CUI, Tessai HAYAMA
https://cir.nii.ac.jp/crid/1390025031466479104
人間行動認識(HAR)は、ヘルスケア、フィットネス、スマート環境において重要な技術となっているが、限られたラベル付きデータ、クラスの不均衡、クラス内変動性によって性能が制約されることが多い。これらの課題に対処するため、本研究では、活動ラベルと多次元統計特徴の両方を条件入力として統合する二重条件付きワッサースタインGANであるHAR-DCWGANを提案する。生成プロセスに二重の文脈情報を組み込むことで、本モデルは、リアリズム、多様性、クラス一貫性が向上した合成センサー信号を生成する。4つの公開HARデータセット(mHealth、MotionSense、PAMAP2、UCI-HAR)を用いた被験者独立条件下での評価により、HAR-DCWGANは従来のcWGANおよびベースライン手法を上回り、分類精度、頑健性、クラス内変動性の表現において有意な改善をもたらすことが実証された。これらの知見は、HAR-DCWGANが実用的な展開においてHAR性能を向上させる有望で信頼性の高いアプローチであることを確立するものである。
キーワード: 人間行動認識、合成データ生成、条件付きワッサースタインGAN、ウェアラブルセンサー、データ拡張、時系列解析
英文概要(Abstract)
Human Activity Recognition (HAR) has become a critical technology for healthcare, fitness, and smart environments, yet its performance is often constrained by limited labeled data, class imbalance, and intra-class variability. To address these challenges, we propose HAR-DCWGAN, a Dual-Conditional Wasserstein GAN that integrates both activity labels and multidimensional statistical features as conditional inputs. By incorporating dual contextual information into the generative process, our model produces synthetic sensor signals with improved realism, diversity, and class consistency. Evaluations across four publicly available HAR datasets (mHealth, MotionSense, PAMAP2, and UCI-HAR) under subject-independent conditions demonstrate that HAR-DCWGAN outperforms conventional cWGANs and baseline methods, yielding significant improvements in classification accuracy, robustness, and representation of intra-class variability. These findings establish HAR-DCWGAN as a promising and reliable approach to enhance HAR performance in practical deployments.
Keywords: Human Activity Recognition (HAR), Synthetic Data Generation, Conditional Wasserstein GAN, Wearable Sensors, Data Augmentation, Time-Series Analysis