
0:01
ハンナ

0:01
ハンナ
import AnimationSDK
import SwiftUI
struct ChefCompanionView: View {
@State var chef: Character
var body: some View {
CharacterView(chef) { characterView in
characterView.loadEnvironment("modern_kitchen")
} update: { conversationState, characterView in
if let emotion = conversationState.emotion,
emotion.primary == .confused,
emotion.confidence > 0.5
{
characterView.switchEnvironment(
"ingredient_pantry")
}
if conversationState.hasKeyword("dessert") {
characterView.switchEnvironment(
"pastry_station")
}
}
.frame(maxWidth: .infinity, maxHeight: .infinity)
.onAppear {
chef.enableRecipeMode(true)
chef.enableTimerAlerts(true)
chef.sayIntroPhrase()
}
.onTapGesture {
chef.showTechnique()
}
.onReceive(chef.$dishCompleted) {
chef.saySimilar(
"Voilà! Beautiful dish! Shall we plate it together?"
)
}
.onChange(chef.$recipeStep) { oldValue, newValue in
chef.goTo("prep_station")
}
}
}
struct FitnessTrainerView: View {
@State var trainer: Character
var body: some View {
CharacterView(trainer) { characterView in
characterView.loadEnvironment("gym_studio")
} update: { conversationState, characterView in
if let emotion = conversationState.emotion,
emotion.primary == .energetic,
emotion.confidence > 0.7
{
characterView.switchEnvironment(
"outdoor_track")
}
if conversationState.fatigueLevelDetected > 0.8
{
characterView.switchEnvironment(
"recovery_room")
}
}
.frame(maxWidth: .infinity, maxHeight: .infinity)
.onAppear {
trainer.enableMovementTracking(true)
trainer.enableVoiceCommands(true)
trainer.sayIntroPhrase()
}
.onTapGesture {
trainer.demonstrateExercise()
}
.onReceive(trainer.$workoutCompleted) {
trainer.saySimilar(
"Amazing job! You crushed it! Ready for cooldown?"
)
}
.onChange(trainer.$exerciseID) {
oldValue, newValue in
trainer.goTo("exercise_mat")
}
}
}
struct MeditationGuideView: View {
@State var guide: Character
var body: some View {
CharacterView(guide) { characterView in
characterView.loadEnvironment("zen_garden")
} update: { conversationState, characterView in
if let emotion = conversationState.emotion,
emotion.primary == .stressed,
emotion.confidence > 0.6
{
characterView.switchEnvironment(
"calm_beach")
}
if conversationState.breathingRhythm == .deep {
characterView.switchEnvironment(
"mountain_peak")
}
}
.frame(maxWidth: .infinity, maxHeight: .infinity)
.onAppear {
guide.enableBiometricMonitoring(true)
guide.enableAmbientSounds(true)
guide.sayIntroPhrase()
}
.onTapGesture {
guide.sayWisdomWords()
}
.onReceive(guide.$sessionCompleted) {
guide.saySimilar(
"Wonderful practice. How do you feel now?")
}
.onChange(guide.$meditationPhase) {
oldValue, newValue in
guide.goTo("lotus_position")
}
}
}
import AnimationSDK
import SwiftUI
struct ChefCompanionView: View {
@State var chef: Character
var body: some View {
CharacterView(chef) { characterView in
characterView.loadEnvironment("modern_kitchen")
} update: { conversationState, characterView in
if let emotion = conversationState.emotion,
emotion.primary == .confused,
emotion.confidence > 0.5
{
characterView.switchEnvironment(
"ingredient_pantry")
}
if conversationState.hasKeyword("dessert") {
characterView.switchEnvironment(
"pastry_station")
}
}
.frame(maxWidth: .infinity, maxHeight: .infinity)
.onAppear {
chef.enableRecipeMode(true)
chef.enableTimerAlerts(true)
chef.sayIntroPhrase()
}
.onTapGesture {
chef.showTechnique()
}
.onReceive(chef.$dishCompleted) {
chef.saySimilar(
"Voilà! Beautiful dish! Shall we plate it together?"
)
}
.onChange(chef.$recipeStep) { oldValue, newValue in
chef.goTo("prep_station")
}
}
}
struct FitnessTrainerView: View {
@State var trainer: Character
var body: some View {
CharacterView(trainer) { characterView in
characterView.loadEnvironment("gym_studio")
} update: { conversationState, characterView in
if let emotion = conversationState.emotion,
emotion.primary == .energetic,
emotion.confidence > 0.7
{
characterView.switchEnvironment(
"outdoor_track")
}
if conversationState.fatigueLevelDetected > 0.8
{
characterView.switchEnvironment(
"recovery_room")
}
}
.frame(maxWidth: .infinity, maxHeight: .infinity)
.onAppear {
trainer.enableMovementTracking(true)
trainer.enableVoiceCommands(true)
trainer.sayIntroPhrase()
}
.onTapGesture {
trainer.demonstrateExercise()
}
.onReceive(trainer.$workoutCompleted) {
trainer.saySimilar(
"Amazing job! You crushed it! Ready for cooldown?"
)
}
.onChange(trainer.$exerciseID) {
oldValue, newValue in
trainer.goTo("exercise_mat")
}
}
}
struct MeditationGuideView: View {
@State var guide: Character
var body: some View {
CharacterView(guide) { characterView in
characterView.loadEnvironment("zen_garden")
} update: { conversationState, characterView in
if let emotion = conversationState.emotion,
emotion.primary == .stressed,
emotion.confidence > 0.6
{
characterView.switchEnvironment(
"calm_beach")
}
if conversationState.breathingRhythm == .deep {
characterView.switchEnvironment(
"mountain_peak")
}
}
.frame(maxWidth: .infinity, maxHeight: .infinity)
.onAppear {
guide.enableBiometricMonitoring(true)
guide.enableAmbientSounds(true)
guide.sayIntroPhrase()
}
.onTapGesture {
guide.sayWisdomWords()
}
.onReceive(guide.$sessionCompleted) {
guide.saySimilar(
"Wonderful practice. How do you feel now?")
}
.onChange(guide.$meditationPhase) {
oldValue, newValue in
guide.goTo("lotus_position")
}
}
}
次世代AIコンパニオンを実現。
次世代AIコンパニオンを実現。
リアルタイム
オンデバイスで動作
3D
シンプルかつ超高速なアニメーションで 従来にはない豊かな表現力と人との深いつながりを育む、 最先端のAIシステムを低コストで実現。
一連のソリューション
一連のソリューション
ひとつのスタック。無限の創造力。
ひとつのスタック。無限の創造力。
ひとつのスタック。無限の創造力。
ひとつのスタック。無限の創造力。

Ani-2モデル
独自開発のオンデバイスAIモデルが、
リアルタイムで全身3Dモーションを生成。
モーションキャプチャ不要、
クラウド不要、遅延なし。
推論速度:2.5 ms / frame

Anichatプラットフォーム
どんなキャラクターでも、
どんな個性でも、どんな見た目でも。
想像するものへ命を吹き込むことができます。
ビデオ通話で話し、つながり、想いをシェア。
まもなく登場
インタラクティブ配信
インタラクティブ配信
配信中にキャラクターを自由に操作。
リアルタイムで視聴者との交流が可能に!
まもなく登場
コンテンツ生成エンジン
圧倒的スピードで動画に変換!キャラクターの
一貫性とクリエイティブな表現力の両立が可能に。
かつてない動画体験を低コストで実現。
圧倒的スピードで動画に変換!キャラクターの 一貫性とクリエイティブな表現力の両立が可能に。 かつてない動画体験を低コストで実現。
チーム
Animation Inc. のチームは、MSQRD、Meta Spark、Loóna の立ち上げに携わった
オリジナルメンバーによって構成されています。現在、ロンドン、ワルシャワ、キプロス、
サンフランシスコを中心に13名のリモートチームが活躍中です。
当社は、Elefund、True Ventures、Haystack などシリコンバレーを拠点とする
著名なベンチャーキャピタルからの支援を受け、事業を展開しています。
Animation Inc. のチームは、MSQRD、Meta Spark、Loóna の立ち上げに携わった
オリジナルメンバーによって構成されています。現在、ロンドン、ワルシャワ、キプロス、
サンフランシスコを中心に13名のリモートチームが活躍中です。
当社は、Elefund、True Ventures、Haystack などシリコンバレーを拠点とする
著名なベンチャーキャピタルからの支援を受け、事業を展開しています。
Animation Inc. のチームは、MSQRD、Meta Spark、Loóna の立ち上げに携わった
オリジナルメンバーによって構成されています。現在、ロンドン、ワルシャワ、キプロス、
サンフランシスコを中心に13名のリモートチームが活躍中です。
当社は、Elefund、True Ventures、Haystack などシリコンバレーを拠点とする
著名なベンチャーキャピタルからの支援を受け、事業を展開しています。

Sergey Gonchar, CEO

Eugene Zatepyakin, CTO

Eugene Nevgen, CSO

Andrew Yanchurevich, CPO

Dmitry Doryn, CDO
過去の実績
過去の実績

"MSQRD × Meta世界中で人気を博したARアプリ「MSQRD」の開発者。 ユーザー数1億人を突破し、Metaにより買収。 Instagram上で10億人規模にスケール展開。 "
"MSQRD × Meta世界中で人気を博したARアプリ「MSQRD」の開発者。 ユーザー数1億人を突破し、Metaにより買収。 Instagram上で10億人規模にスケール展開。 "


Apple Design Award受賞アプリ「Loóna」のクリエイターであり、Apple Vision Proローンチパートナー「Loóna Spatial」の開発元です。
Apple Design Award受賞アプリ「Loóna」のクリエイターであり、Apple Vision Proローンチパートナー「Loóna Spatial」の開発元です。
よくある質問
Animation Inc.とは?
Animation Inc.は、リアルタイム生成アニメーションを開発するディープテック・スタートアップです。 私たちは、アニメーションAIこそが、生命感あふれるバーチャルキャラクターを創造し、大規模言語モデル(LLM)を活用した体験を豊かにする最後のフロンティアであると確信しています。生成AIの時代において、私たちはこれまでにない没入感とリアリティをもたらすバーチャル体験の新たな可能性を切り拓いています。
生成ビデオとアニメーションAIの違いとは
生成ビデオは、短いプリレンダリングされたシーンやクリップを生成しますが、生成アニメーションはリアルタイムAIによって、あらゆる動きや感情をダイナミックに制御します。キャラクターはあなたの声やテキストに即座に反応し、インタラクティブに進化し続けます。ひとつは「コンテンツ」を生む。もうひとつは「連続する存在感」を生む。
この開発がユニークで重要な理由は?
これは、ニューラルネットワークによってデバイス上でリアルタイムに完全制御される、 世界初のアニメーションエンジンです。AIに「顔」と「感情」、そして「生きているかのような存在感」 を与えることができます。これは、モーションキャプチャや手動アニメーションでは実現できないものです。 アニメーションAI無しでは、AIは抽象的で、人間の世界と断絶されたままとなります
なぜこの技術が世界と人類にとって重要なのか?
人は、顔やしぐさ、感情によってつながり、共感と信頼を築きます。私たちの技術は、AIとのインタラクションにその「人間らしさ」を加えます。Animation Inc.のアバターは、語学学習、プレゼンテーション支援、カスタマーサポートなど、さまざまな用途に活用可能です。将来的には、この技術がメタバースやAGI(汎用人工知能)の基盤となり、シンプルに話すだけの従来型AIではなく、「まるで生きているかのように動き、感情を表現するAI」の世界を実現します
Animation Inc.とは?
Animation Inc.は、リアルタイム生成アニメーションを開発するディープテック・スタートアップです。 私たちは、アニメーションAIこそが、生命感あふれるバーチャルキャラクターを創造し、大規模言語モデル(LLM)を活用した体験を豊かにする最後のフロンティアであると確信しています。生成AIの時代において、私たちはこれまでにない没入感とリアリティをもたらすバーチャル体験の新たな可能性を切り拓いています。
生成ビデオとアニメーションAIの違いとは
生成ビデオは、短いプリレンダリングされたシーンやクリップを生成しますが、生成アニメーションはリアルタイムAIによって、あらゆる動きや感情をダイナミックに制御します。キャラクターはあなたの声やテキストに即座に反応し、インタラクティブに進化し続けます。ひとつは「コンテンツ」を生む。もうひとつは「連続する存在感」を生む。
この開発がユニークで重要な理由は?
これは、ニューラルネットワークによってデバイス上でリアルタイムに完全制御される、 世界初のアニメーションエンジンです。AIに「顔」と「感情」、そして「生きているかのような存在感」 を与えることができます。これは、モーションキャプチャや手動アニメーションでは実現できないものです。 アニメーションAI無しでは、AIは抽象的で、人間の世界と断絶されたままとなります
なぜこの技術が世界と人類にとって重要なのか?
人は、顔やしぐさ、感情によってつながり、共感と信頼を築きます。私たちの技術は、AIとのインタラクションにその「人間らしさ」を加えます。Animation Inc.のアバターは、語学学習、プレゼンテーション支援、カスタマーサポートなど、さまざまな用途に活用可能です。将来的には、この技術がメタバースやAGI(汎用人工知能)の基盤となり、シンプルに話すだけの従来型AIではなく、「まるで生きているかのように動き、感情を表現するAI」の世界を実現します
Animation Inc.とは?
Animation Inc.は、リアルタイム生成アニメーションを開発するディープテック・スタートアップです。 私たちは、アニメーションAIこそが、生命感あふれるバーチャルキャラクターを創造し、大規模言語モデル(LLM)を活用した体験を豊かにする最後のフロンティアであると確信しています。生成AIの時代において、私たちはこれまでにない没入感とリアリティをもたらすバーチャル体験の新たな可能性を切り拓いています。
生成ビデオとアニメーションAIの違いとは
生成ビデオは、短いプリレンダリングされたシーンやクリップを生成しますが、生成アニメーションはリアルタイムAIによって、あらゆる動きや感情をダイナミックに制御します。キャラクターはあなたの声やテキストに即座に反応し、インタラクティブに進化し続けます。ひとつは「コンテンツ」を生む。もうひとつは「連続する存在感」を生む。
この開発がユニークで重要な理由は?
これは、ニューラルネットワークによってデバイス上でリアルタイムに完全制御される、 世界初のアニメーションエンジンです。AIに「顔」と「感情」、そして「生きているかのような存在感」 を与えることができます。これは、モーションキャプチャや手動アニメーションでは実現できないものです。 アニメーションAI無しでは、AIは抽象的で、人間の世界と断絶されたままとなります
なぜこの技術が世界と人類にとって重要なのか?
人は、顔やしぐさ、感情によってつながり、共感と信頼を築きます。私たちの技術は、AIとのインタラクションにその「人間らしさ」を加えます。Animation Inc.のアバターは、語学学習、プレゼンテーション支援、カスタマーサポートなど、さまざまな用途に活用可能です。将来的には、この技術がメタバースやAGI(汎用人工知能)の基盤となり、シンプルに話すだけの従来型AIではなく、「まるで生きているかのように動き、感情を表現するAI」の世界を実現します
