Our paper published in IEEE ACCESS

Cross-Dataset Representation Learning for Unsupervised Deep Clustering in Human Activity Recognition

Authors: Tomoya Takatsu; Tessai Hayama; Hu Cui

https://ieeexplore.ieee.org/document/10971938

Abstract:

This study presents a new method to improve unsupervised deep clustering for Human Activity Recognition (HAR). Traditional methods often struggle to extract meaningful features from unlabeled data, resulting in poor classification accuracy. To solve this, the proposed method combines an autoencoder with models pre-trained on diverse HAR datasets. This approach helps extract more reliable and generalizable feature representations, which are then used for clustering.

The method was tested on three HAR datasets and significantly outperformed existing methods like k-means, HMM, and standard autoencoder-based clustering, achieving F1 scores between 0.441 and 0.781. Even with just 50 labeled samples for fine-tuning, the performance improved further, reaching F1 scores of 0.66 to 0.88. This demonstrates the method’s robustness and effectiveness in unsupervised settings. It also shows promise for broader use beyond HAR.

本研究は、人間行動認識(HAR)における教師なし深層クラスタリングの精度を向上させる新しい手法を提案しています。従来の手法では、ラベルなしデータから有用な特徴をうまく取り出せず、分類性能が低いという課題がありました。

そこで本研究では、さまざまなHARデータセットで事前学習されたモデルとオートエンコーダを組み合わせることで、より頑健で汎用的な特徴表現を抽出し、それを使ってクラスタリングを行います。

3つのHARデータセットで検証した結果、従来手法(k-meansやHMM、通常のオートエンコーダ)よりも高いF1スコア(0.441〜0.781)を達成。さらに、わずか50個のラベル付きデータで微調整した場合でもF1スコアが0.66〜0.88まで向上しました。

この手法は、ラベルの少ない状況でも高い認識精度を実現できることを示しており、HAR以外の分野にも応用可能な、実用性と拡張性の高い方法です。

HGMamba: New State-of-the-Art 3D Pose Estimation Model Accepted at IJCNN 2025

HGMamba: Enhancing 3D Human Pose Estimation with a HyperGCN-Mamba Network

Authors: HU CUI and Tessai Hayama
Conference: 2025 International Joint Conference on Neural Networks (IJCNN)
📄 arXiv:2504.06638


The paper introduces HGMamba, a novel network combining HyperGCN and Shuffle Mamba to enhance 3D human pose estimation from 2D pose data.
HyperGCN captures local joint dependencies via hypergraphs, while Shuffle Mamba scans global spatio-temporal patterns across all joints.
By fusing both, HGMamba models both local structure and global context effectively.
Tested on Human3.6M and MPI-INF-3DHP, HGMamba-B achieved state-of-the-art P1 errors: 38.65 mm and 14.33 mm, respectively.


本論文では、2D姿勢データからの3D姿勢推定を高精度化する新しいネットワーク「HGMamba」を提案しています。
HyperGCNは関節間の局所構造をハイパーグラフで捉え、Shuffle Mambaは全関節にわたる時空間的特徴を抽出します。
両者を融合することで、局所とグローバルの特徴を高精度にモデリングします。
Human3.6MおよびMPI-INF-3DHPで評価した結果、HGMamba-BはP1エラー38.65mm/14.33mmと最先端の精度を達成しました。