HAR研究がIEICE Transactions に掲載

AIが創る、本物そっくりの人間行動データを作る方法の開発

AI-Powered Data Synthesis for Better Activity Recognition

HAR-DCWGAN: Dual-Conditional Wasserstein GAN for Human Activity Recognition Data Synthesis

Shurui JIA, Hu CUI, Tessai HAYAMA

https://cir.nii.ac.jp/crid/1390025031466479104

人間行動認識(HAR)は、ヘルスケア、フィットネス、スマート環境において重要な技術となっているが、限られたラベル付きデータ、クラスの不均衡、クラス内変動性によって性能が制約されることが多い。これらの課題に対処するため、本研究では、活動ラベルと多次元統計特徴の両方を条件入力として統合する二重条件付きワッサースタインGANであるHAR-DCWGANを提案する。生成プロセスに二重の文脈情報を組み込むことで、本モデルは、リアリズム、多様性、クラス一貫性が向上した合成センサー信号を生成する。4つの公開HARデータセット(mHealth、MotionSense、PAMAP2、UCI-HAR)を用いた被験者独立条件下での評価により、HAR-DCWGANは従来のcWGANおよびベースライン手法を上回り、分類精度、頑健性、クラス内変動性の表現において有意な改善をもたらすことが実証された。これらの知見は、HAR-DCWGANが実用的な展開においてHAR性能を向上させる有望で信頼性の高いアプローチであることを確立するものである。

キーワード: 人間行動認識、合成データ生成、条件付きワッサースタインGAN、ウェアラブルセンサー、データ拡張、時系列解析


英文概要(Abstract)

Human Activity Recognition (HAR) has become a critical technology for healthcare, fitness, and smart environments, yet its performance is often constrained by limited labeled data, class imbalance, and intra-class variability. To address these challenges, we propose HAR-DCWGAN, a Dual-Conditional Wasserstein GAN that integrates both activity labels and multidimensional statistical features as conditional inputs. By incorporating dual contextual information into the generative process, our model produces synthetic sensor signals with improved realism, diversity, and class consistency. Evaluations across four publicly available HAR datasets (mHealth, MotionSense, PAMAP2, and UCI-HAR) under subject-independent conditions demonstrate that HAR-DCWGAN outperforms conventional cWGANs and baseline methods, yielding significant improvements in classification accuracy, robustness, and representation of intra-class variability. These findings establish HAR-DCWGAN as a promising and reliable approach to enhance HAR performance in practical deployments.

Keywords: Human Activity Recognition (HAR), Synthetic Data Generation, Conditional Wasserstein GAN, Wearable Sensors, Data Augmentation, Time-Series Analysis

WACV 2026 論文採択

Winter Conference on Applications of Computer Vision 2026(WACV 2026)において、以下の論文が 採択(Accepted) されました

H. Cui, W. Hua, R. Huang, S. Jia, T. Hayama,
“SasMamba: A Lightweight Structure-Aware Stride State Space Model for 3D Human Pose Estimation”,
in Proc. WACV 2026, Tucson, Arizona, USA, 2026

https://arxiv.org/abs/2511.08872

WACV は、コンピュータビジョン分野における主要な国際会議の一つであり、本採択は本研究の学術的意義と技術的貢献が国際的に評価された結果です
発表は 2026年3月、米国アリゾナ州ツーソンにて行われる予定です


Paper Overview

SasMamba proposes a lightweight and structure-aware state space model for 3D human pose estimation.
Unlike conventional transformer-based or heavy temporal models, the proposed method introduces a stride-aware state space formulation that efficiently captures long-range temporal dependencies while explicitly considering skeletal structure.

By integrating structural priors of the human body with a compact state space design, SasMamba achieves a favorable balance between accuracy, computational efficiency, and model size.
Experimental results demonstrate that the proposed approach maintains competitive performance on benchmark datasets while significantly reducing computational cost, making it suitable for real-time and resource-constrained applications.


論文概要

SasMamba は、3次元ヒト姿勢推定のための軽量かつ構造認識型の状態空間モデルを提案する研究です
従来のTransformer系モデルや大規模な時系列モデルとは異なり、本手法では Stride(時間間隔)を考慮した状態空間表現 を導入し、長時間の動作依存関係を効率的に捉えます

さらに、人体骨格の構造情報を明示的にモデルに組み込むことで、高い推定精度、低計算コスト、小規模モデル、を両立しています
実験結果から、SasMamba は既存手法と同等以上の性能を維持しつつ、リアルタイム処理や計算資源が限られた環境にも適用可能であることが示されました